AboAbonnieren

Deepfakes: Audio- und Videomanipulation auf der Spur

Lesezeit 2 Minuten

Bonn/Berlin – Es ist vertrackt: Vor allem bewegten Bildern und Stimmen vertrauen wir Menschen intuitiv. Doch seitdem es möglich ist, selbst dynamische Medien wie Videos und Audiomitschnitte mit vergleichsweise wenig Aufwand und Expertise in hoher Qualität zu fälschen, heißt es umdenken.

erklärt.

Geboren aus neuronalen Netzen

Die Fälschungen werden auch als Deepfakes bezeichnet, weil die Verfahren zu ihrer Erstellung auf tiefen neuronalen Netzen (deep neural networks) basieren.

Und wie schafft man es, Deepfakes nicht auf den Leim zu gehen? Schon allein das Wissen um ihre Existenz und die Möglichkeiten von KI hilft dabei, nicht mehr per se auf die Echtheit jeglicher Videos oder Audio-Aufzeichnungen zu vertrauen. Stattdessen gilt es, immer auch Aussagen und Plausibilität kritisch zu hinterfragen.

Handwerklich nicht immer perfekt

Aber auch technisch kann es durchaus Hinweise geben, die Fälschungen entlarven können. Dazu zählen dem BSI zufolge etwa Artefakte bei Gesichtsübergängen, verwaschene Konturen, begrenzte Mimik oder unstimmige Belichtung bei Videos. Metallischer oder monotoner Klang, falsche Aussprache oder unnatürliche Sprechweise sowie unnatürliche Geräusche oder Verzögerungen sind typische Fehler bei Stimmfälschungen.

Künftig könnte es aber auch kryptographische Verfahren geben, die die Quelle von Video- oder Audio-Material eindeutig mit einer Identität verknüpfen, gibt das BSI einen Ausblick darauf, wie zukünftig Deepfakes verhindert werden könnten. Dazu zählten auch zahlreiche Methoden zur automatisierten Erkennung manipulierter Daten, an denen Wissenschaftlerinnen und Wissenschaftler arbeiten.

© dpa-infocom, dpa:220211-99-82729/3 (dpa/tmn)