Im Kampf gegen Kriminelle - und um die Sicherheit an gefährlichen Orten zu verbessern - experimentiert in NRW die Polizei mit KI-Technik.
Die perfekte ÜberwachungWie KI der Polizei in NRW bei Kontrollen helfen könnte
In Mönchengladbach hat ein Testprogramm begonnen, das am Hauptbahnhof vor gefährlichen Situationen warnen soll. Acht Radarsensoren halten Bewegungen und Handlungen von Menschen mittels Farbspektren und Wellenlinien fest.
Die KI soll aus den Aufnahmen sicherheitsgefährdende Situationen erkennen. „Während der Testphase soll das System für drei Szenarien trainiert werden. Flucht, körperliche Auseinandersetzung und eine hilflose Person am Boden“, erklärte Thomas Patalas, wissenschaftlicher Mitarbeiter an der Hochschule Niederrhein, die das Projekt mit den Namen „KIRaPol.5G“ wissenschaftlich begleitet. Wichtig zu wissen: Die Sensoren in Mönchengladbach erfassen nur anonymisierte Daten, denen man nicht die Identität einer Person entnehmen kann. Bilder von Gesichtern werden nicht genutzt. Das wäre nach heutigem Recht nicht erlaubt. Gerade ist in der EU das Gesetz über Künstliche Intelligenz in Kraft getreten. Es verbietet unter anderem die Gesichtserkennung im öffentlichen Raum.
Sollte sich die Rechtslage einmal ändern, stünden der Polizei KI-gestützte Werkzeuge zur Verfügung, mit denen womöglich eine totale Kontrolle von Straßen, Plätzen und Menschen möglich wäre. Trainiert und experimentiert wird schon längst mit einem Dutzend Programmen, die einer Science-Fiction-Erzählung entstammen könnten. Sie heißen zum Beispiel „X-Ways Forensics“ und „Digivod Investigator“. Der „Große Bruder“ aus Orwells dystopischem Roman „1984“ wäre wohl von diesem Werkzeugkasten begeistert.
In einer Antwort auf eine Anfrage der FDP-Landtagsfraktion erklärte NRW-Innenminister Herbert Reul (CDU) schon im Herbst 2023, dass von der Polizei die Software „Videmo360“ zur „nachgelagerten Auswertung von Bild- und Videomaterial operativ eingesetzt“ werde. „Videmo360“ könnte problemlos auch in Echtzeit von Kameras aufgezeichnete Gesichter erkennen. Der Hersteller verkauft es als „All-in-one-Lösung zur Gesichtserkennung in Videos, Fotos und direkt vor Kameras“.
„Zu Schulungszwecken“, so der Innenminister, würden auch die Programme „Magnet Axiom“ zur Auswertung von sichergestellten Daten sowie „Physical Analyzer“ zur Sicherung und Auswertung von Mobiltelefonen bereits in der Praxis genutzt. „Magnet Axiom“ wird vom Entwickler als „großartiges Tool zu effizienten Datenfilterung“ angepriesen. Blitzschnell könne die Software Beweismittel in Smartphones, Computern, in der Cloud und sogar in Fahrzeugen sammeln und filtern.
Das bedeutet nicht, dass die Polizei diese Technologien tatsächlich für die Überwachung einsetzt. Innenminister Reul stellte schon damals in seiner Antwort klar: Für die „Gesichtserkennung in Echtzeit im öffentlichen Raum“ gebe es in NRW derzeit keine Rechtsgrundlage.
KI: Hoffnung und Skepsis
Marc Lürbke, innenpolitischer Sprecher der FDP-Landtagsfraktion, blickt „sowohl mit Hoffnung als auch mit einer gewissen Skepsis auf diese Entwicklung“. KI biete enorme Chancen, die öffentliche Sicherheit zu erhöhen. Gleichzeitig müsse sichergestellt werden, dass der Einsatz solcher Technologien mit den Grundrechten vereinbar sei. „Es ist entscheidend, klare rechtliche Leitplanken zu schaffen, um Missbrauch zu verhindern und das Vertrauen der Bevölkerung in den Einsatz von KI zu stärken", so der Abgeordnete.
Liberale wie Marc Lürbke dringen auf eine Balance zwischen Grundrechte-Schutz und Sicherheit. „Aus bürgerrechtlicher Sicht muss hier besondere Wachsamkeit herrschen, denn flächendeckender Überwachung dürfen nicht Tür und Tor geöffnet werden. Biometrische Fernidentifizierung im öffentlichen Raum bedroht per se unsere Grundrechte, deshalb müssen wir da rechtlich und politisch ganz genau hinschauen“, sagt er. Der Innenminister müsse dafür sorgen, dass bei der Polizei in NRW keine verbotenen KI-Systeme zum Einsatz kommen.
Diese Warnung kommt nicht aus dem luftleeren Raum. Polizistinnen und Polizisten bewegen sich zuweilen beim Einsatz von KI in rechtlichen Grauzonen. Zum Beispiel soll die sächsische Polizei ein Gesichtserkennungs-System genutzt haben, um gegen Bandenkriminalität vorzugehen: In Autos versteckt Kameras erfassten Kennzeichen und Gesichtsbilder. Die Daten wurden dann unmittelbar für Ermittlungen genutzt. Diese „Observationstechnik zur Rasterfahndung mit Gesichtsbildern“ stellte Sachsen auch anderen Ländern zu Verfügung, zum Beispiel NRW, wie im Mai aus der Antwort der Sächsischen Staatsregierung auf eine Anfrage der Linkspartei hervorging.
Der Bayerische Rundfunk berichtete, dass das Bundeskriminalamt Millionen Bilder aus einer Polizeidatenbank genutzt haben soll, um Gesichtserkennungssoftware zu testen. Das Projekt trug demnach den Namen EGES: „Ertüchtigung des Gesichtserkennungssystems im BKA“. Das bayerische Landeskriminalamt soll eine Software der US-Firma Palantir mit echten Personendaten getestet haben. Datenschützer sind alarmiert. (mit dpa)