AboAbonnieren

Gekapertes Meeting und Deepfake-VideoKI-Betrüger ködern Mitarbeiter und erbeuten Millionen mit „Chef-Masche“

Lesezeit 2 Minuten
Eine Person sitzt an einem Laptop. Betrüger sollen in Hongkong mithilfe von KI-Deepfake rund 23 Millionen Euro erbeutet haben. (Symbolbild)

Eine Person sitzt an einem Laptop. Betrüger sollen in Hongkong mithilfe von KI-Deepfake rund 23 Millionen Euro erbeutet haben. (Symbolbild)

Mit Druck und einer täuschend echten Kopie des Finanzchefs wurden Mitarbeiter ausgetrickst. Auch das LKA in NRW warnt vor ähnlichem Berug.

Betrüger haben offenbar mithilfe von Künstlicher Intelligenz (KI) rund 25 Millionen US-Dollar von einem Unternehmen erbeutet. Dabei sollen die Betrüger sich als Chefs einer Hongkonger Firma ausgegeben haben und so Mitarbeiter zur Überweisung des Millionen-Betrags genötigt haben. Dafür sollen die Betrüger besonders perfide KI genutzt haben, um per Deepfake den Chief Financial Officer (CFO) des Unternehmens zu kopieren, berichteten zuerst die „South China Morning Post“ und „CNN“ am Sonntag (4. Februar).

Hongkong: Betrüger nutzen KI-Deepfakes für Millionen-Beute

Demnach setzten die Betrüger auf die „Chef-Masche“. Mit dringlichen E-Mails sollen sie die Mitarbeiter und Teile des Finanzvorstands in ein Video-Meeting gelockt haben. In dem Gespräch spielten sie dann offenbar ein Video ab, das den CFO des namentlich nicht genannten Unternehmens täuschend echt nachgestellt hatte. Bei sogenannten Deepfakes lassen sich mithilfe von KI und realen Bild- und Textschnipseln etwa bekannte Gesichter auf fremde Körper montieren oder mit Audio-Mitschnitten Stimmen imitieren. Viele Prominente, wie jüngst etwa Taylor Swift, haben mit KI-Deepfakes zu kämpfen.

Die Hongkonger Ermittler gehen laut Berichten davon aus, dass die Betrüger Aufnahmen des CFO kopiert und die Künstliche Intelligenz damit gefüttert haben, um den Fake zu erstellen. Da die Technik noch nicht so weit ist, um den KI-Deepfake in Echtzeit umzusetzen, mussten sie auf ein vorher aufgezeichnetes Video für das Gespräch zurückgreifen. Die Polizei rät Unternehmen, sich auf derartige Betrugsmaschen vorzubereiten. Verdächtige im Betrugsfall gibt es laut Berichten noch nicht, die Polizei fahndet.

Auch die Polizei in Nordrhein-Westfalen hat vor Betrugsmaschen mit KI-Unterstützung gewarnt. Gegenüber dem „Kölner Stadt-Anzeiger“ teilte das LKA in NRW bereits im vergangenen Mai mit: „KI wirkt als Beschleuniger von Straftaten, die in der Vergangenheit ohne Zugang zu entsprechenden Methoden, Hardware und Daten nur mit sehr hohem Aufwand hätten begangen werden können. Das illustriert das Potenzial der KI für die Begehung von Straftaten.“