Mit einer Gesichtserkennungssoftware spürten Journalisten die untergetauchte RAF-Terroristin Daniela Klette schon vor Monaten auf. Solche technischen Instrumente hochwirksam, doch die Polizei in Deutschland darf sie bei ihren Ermittlungen nicht nutzen.
Nach RAF-FestnahmeFahndung mithilfe von KI – warum sie rechtlich so heikel ist
Rund eine halbe Stunde soll das Ganze gedauert haben. Im vergangenen Herbst jagten Journalisten mehr als 30 Jahre alte Fahndungsfotos von Daniela Klette durch die öffentliche Software „PimEyes“ – mit einem Volltreffer: Die Ergebnisse, die die Bildersuchmaschine ausspuckte, zeigten tatsächlich neue Aufnahmen der untergetauchten früheren RAF-Terroristin. Eine Frau mittleren Alters, graues Haar, aktiv in einem Berliner Kampfkunst-Verein. Auch wenn die Journalisten die Spurensuche irgendwann aufgaben: Ein paar Klicks hatten genügt, schon waren sie auf der richtigen Fährte.
Monate später stehen Polizisten vor Klettes Wohnung in Berlin-Kreuzberg. Nach einem halben Leben im Untergrund wird sie festgenommen. Für die Ermittlungen gegen die mutmaßliche Schwerverbrecherin ist das niedersächsische Landeskriminalamt (LKA) verantwortlich. Dort will man nicht sagen, ob bei der Fahndung eine Gesichtserkennungssoftware wie „PimEyes“ zum Einsatz kam. „Das LKA verwendet grundsätzlich verschiedene Anwendungen und Software-Tools“, teilt ein Sprecher auf Anfrage mit. Der Einsatz hänge vom Einzelfall ab.
Er habe wirklich nur 30 Minuten gebraucht, um zu bestimmen, dass die Fotos auf der Internetseite des Capoeira-Studios mit hoher Wahrscheinlichkeit Klette zeigten, sagt Michael Colborne vom Recherchekollektiv „Bellingcat“. Der kanadische Journalist setzte die Software im Auftrag des Podcasts „Legion“ der Sender NDR und RBB ein. „Die Tatsache, dass jemand wie ich, der kein Deutsch spricht, so kurze Zeit brauchte, um eine Spur zu finden, die direkt zu Daniela Klette führte, lässt mich fragen, wie sie 30 Jahre lang den Strafverfolgungsbehörden entgehen konnte“, kritisiert Colborne.
Wenn es für Journalisten offenbar so einfach gewesen ist, mit Künstlicher Intelligenz (KI) Klette zu finden, hätte die Polizei nicht einfach selbst und schon viel früher dieses Werkzeug nutzen können?
Nein, sagt Mario Martini, Verwaltungsrechtler an der Universität Speyer. Der Professor forscht seit mehreren Jahren zur Gesichtserkennung in Sicherheitsbehörden. „Die Politik hat der Polizei sehr enge Ketten angelegt, um unser informationelles Selbstbestimmungsrecht zu schützen.“ Fahndungsfotos dürfe sie nicht beliebig mit Aufnahmen aus dem Internet abgleichen. Instrumente wie „PimEyes“ seien zwar sehr effizient, aber „der gute Zweck heiligt nicht alle Mittel“.
Für ein paar Euro im Monat durchsucht die Software Hunderte Millionen Bilder
Das sieht auch Stephan Schindler von der Uni Kassel so. Der Jurist beschäftigt sich mit den Folgen der Videoüberwachung. Er sagt: „Der Dienst, den ,PimEyes‘ als privates Unternehmen anbietet, ist nach deutschem und europäischem Datenschutzrecht höchstwahrscheinlich rechtswidrig.“ Allein deshalb sei es problematisch, wenn die Polizei ihn für Fahndungszwecke nutzt.
Nutzen kann „PimEyes“ jeder, für ein paar Euro im Monat ist das uneingeschränkt möglich. Füttert man die Suchmaschine mit Fotos, durchsucht ein Algorithmus Hunderte Millionen Bilder und erkennt Gesichter anhand biometrischer Daten wieder. Das funktioniert selbst bei Aufnahmen mit Menschenmassen oder wenn sich ein Gesicht hinter einer Sonnenbrille verbirgt. Fotos auf Social Media werden nach eigenen Angaben nicht genutzt. Die Bedienung ist simpel, nicht nur etwas für Computer-Nerds.
Doch Systeme zur Gesichtserkennung sind schwer umstritten. Bereits 2020 sprach Stefan Brink, seinerzeit Datenschutzbeauftragter für Baden-Württemberg, von einer „alarmierenden Entwicklung“. Angesichts der rasant steigenden Zahl an Bildern, die „PimEyes“ in seiner Datenbank gespeichert hatte, warnte er vor einer „Gefährdung der freiheitlichen Demokratie“. Nach der Datenschutz-Grundverordnung der EU sei es verboten, „biometrische Daten zur eindeutigen Identifizierung von natürlichen Personen zu nutzen“. Ohne Einwilligung der betroffenen Person dürfe das gar nicht geschehen.
Gefahr für grundrechtliche Freiheit
Verwaltungsrechtler Martini erkennt ebenfalls eine Gefahr in solchen Plattformen. Sie seien „ein Angriff auf unsere grundrechtliche Freiheit, sich im öffentlichen Raum zu bewegen, ohne gleich anhand biometrischer Daten zugeordnet zu werden“, sagt er. Auch die Ampel-Koalition lehnt „den Einsatz von biometrischer Erfassung zu Überwachungszwecken“ eigentlich ab. Gesichtserkennung zur Identifikation von Tatverdächtigen nutzen deutsche Sicherheitsbehörden dagegen schon. Ein entsprechendes Programm hat das Bundeskriminalamt (BKA) bereits seit 2008. Inzwischen sind dort fast 6,7 Millionen Porträtfotos gespeichert.
Doch anders als bei Angeboten wie „PimEyes“ wird die Datenbank ausschließlich mit polizeilich erfassten Lichtbildern von Verdächtigen gefüttert. Die Software gleicht die Porträtfotos mit Handyaufnahmen von Zeugen oder Aufnahmen von Überwachungskameras ab, jedoch nicht in Echtzeit. 2022 führte die Bundespolizei nach Angaben der Bundesregierung 7697 Recherchen mit dem Gesichtserkennungssystem durch. Dabei konnten die Ermittler 2853 unbekannte Personen identifizieren.
Unterdessen werden die zwei Komplizen von Daniela Klette noch gesucht. Mit Burkhard Garweg und Ernst-Volker Staub soll sie Teil der sogenannten dritten Generation der RAF gewesen sein. Ermittler werfen dem Trio außerdem mehrere Raubüberfälle vor. Vor allem nach Garweg wird intensiv gefahndet. Nach mehreren Hausdurchsuchungen in Berlin haben die Sicherheitsbehörden ein neues Fahndungsfoto veröffentlicht. Es zeigt den Verdächtigen auf einer Couch zwischen zwei Hunden. Ob sich die Geschichte der Journalisten, die Daniela Klette mittels „PimEyes“ aufspürten, damit wiederholen lässt? Aktuell scheint das unwahrscheinlich. Lädt man die neuen Bilder von Garweg in das System, führt die Spur nur zu älteren Fahndungsfotos des mutmaßlichen Schwerkriminellen. Bislang öffentlich unbekannte Aufnahmen werden nicht ausgeworfen.
Derweil fordert die Gewerkschaft der Polizei (GdP) eine bessere Gesichtserkennung, um schwere Straftaten leichter aufzuklären. Gewerkschaftschef Jochen Kopelke kritisiert zu hohe rechtliche Hürden für die Polizei. Dass diese im Zeitalter von KI und Digitalisierung eine „solch hilfreiche Software nicht nutzen darf, ist uns Polizistinnen und Polizisten nicht mehr vermittelbar“. Versuche der Bundespolizei mit Gesichtserkennung hätten zu hervorragenden Ergebnissen geführt, sagt auch der Bundesvorsitzende der Deutschen Polizeigewerkschaft (DPolG), Rainer Wendt. Eine gesetzliche Befugnis, um die Technik bei der Suche nach gefährlichen Tätern, Terroristen oder flüchtigen Verbrechern anwenden zu dürfen, gebe es allerdings nicht. „Derzeit ist es den Ermittlern nicht erlaubt, das zu tun, das sollte sich ändern“, fordert Wendt.
Biometrische Echtzeit-Identifizierung könnte in Ausnahmefällen erlaubt werden
Auch die Politik hat sich in die Debatte eingeschaltet. Im Gespräch mit der „taz“ sagte Sebastian Fiedler, SPD-Innenexperte und einst selbst Polizist: Die Polizei solle „selbst eine Software deutscher Hersteller zur Verfügung gestellt bekommen, die unseren datenschutzrechtlichen Anforderungen genügt“. Spätestens wenn die geplante KI-Verordnung der EU verabschiedet wird, könnte es diese geforderten Möglichkeiten geben. In Ausnahmefällen soll die biometrische Echtzeit-Identifizierung dann erlaubt sein.
Falls die Polizei ein solches Tool bekomme, betont Jurist Schindler, müsse es auch komplett von ihr kontrolliert werden. Er gibt aber zu bedenken: „Es kann zu Fehl-Erkennungen kommen. Was ist, wenn eine Person fälschlicherweise als Terrorist identifiziert und festgenommen wird? Unter welchen Voraussetzungen die Polizei Gesichtserkennungssysteme einsetzen darf, muss vom Gesetzgeber präzise geregelt werden. Das ist bisher nicht geschehen.“ Zugleich könnten leicht zugängliche Suchmaschinen wie „PimEyes“ künftig illegal sein. Denn die Verordnung verbietet Datenbanken, in denen man wahllos nach Gesichtern suchen kann.
Andere Länder sind bei dem Thema deutlich hemmungsloser. Die Sicherheitsbehörden in Großbritannien nutzen Gesichtserkennung, um Bilder aus Überwachungskameras in Echtzeit auszuwerten. Laut Forschern liegt die Trefferquote gerade mal bei 20 Prozent. Auch verstoße der Einsatz des Programms gegen Menschenrechte. Vor einigen Jahren lief ein ähnliches Pilotprojekt an einem Berliner Bahnhof. Horst Seehofer, damals Innenminister, war von dem Versuch begeistert. Datenschützer waren erwartungsgemäß völlig anderer Meinung. (mit dpa)