11. Dezember 2023
Deepfake

Deepfake – verständlich erklärt

Künstliche Intelligenz (KI) kann zweifelsohne Großes leisten, aber sie kann auch eine Bedrohung für die objektive Berichterstattung und letztendlich für die Demokratie sein. Eine dieser Gefahren ist die Verbreitung von Fake News durch Deepfake Videos.

Bei Deepfake verwendet man KI Bilderkennungstechnologie, um das Gesicht einer Person auf eine andere zu übertragen. Damit wird Manipulation von Videomaterial in großem Stil möglich.

Was ist Deepfake genau?
Bei Deepfake Videos verwendet man KI Bilderkennungstechnologie, um das Gesicht einer Person auf eine andere zu übertragen. Diesen Prozess nennt man auch „Face Swapping“. Im Falle von Deepfakes tauscht die Software nicht nur das Gesicht, sondern passt auch den Gesichtsausdruck an. Wenn die Körperfigur der Person der des potentiellen “Opfers” sehr ähnlich ist, kann das gefälschte Video unglaublich real aussehen.

Hier ein Beispielvideo, das ich erstellt habe. Obama oder Katzlberger?

Face Swapping Anwendungen gibt es schon seit Jahren
Face Swapping wird seit Jahren in Filmproduktionen angewandt, aber es erforderte erfahrene CGI-Experten, die viele Stunden damit verbringen mussten, anständige Ergebnisse zu erzielen. Ebenso gibt es diverse Apps in den AppStores von Apple und Google, die Face Swap Anwendungen anbieten. Beispiele dafür sind die Facestar Video App oder Faceapp. 

Was ist jetzt neu?
Das eigentlich Neue an Deepfake ist, dass die Technologie qualitativ deutlich besser ist und vor allem für alle zugänglich.

Man kann Deepfake auch als eine Art “High-End-Version” von Photoshop sehen.

Die Software Photoshop von Adobe ist der breiten Masse der Bevölkerung bereits bekannt, da der Begriff „photoshopped“  für die Manipulation von Bildern vor allem im Frauenmagazinbereich steht.

Wer hat Deepfake entwickelt?
Im Herbst 2017 hat ein anonymer Reddit-Nutzer unter dem Pseudonym “Deepfakes” mehrere Pornovideos im Internet veröffentlicht.  Die Szenen waren nicht real, da sie mit einer künstlichen Intelligenz geschaffen wurden.  Im Laufe der Zeit hat die Reddit-Community viele Fehler in den gefälschten Videos behoben, was es immer schwieriger macht, gefälschte von echten Inhalten zu unterscheiden.  Als Trainingsdaten für die Software verwendeten Reddit-Nutzer Datensätze von Sexfilmen und der jeweiligen Schauspielerin.

Kurz darauf wurde eine neue Software namens “FakeApp” veröffentlicht, die von einem Reddit-Benutzer namens deepfakeapp erstellt wurde. Die Anwendung macht es für jeden halbwegs begabten Programmierer viel einfacher, das Gesicht einer beliebigen Person auf eine andere zu übertragen.

Die Anwendung analysiert Hunderte von Fotos und Videos, die im Internet von einer Person zur Verfügung stehen (oder hochgeladen werden). Diese Aufnahmen werden in einem aufwändigen Rechenprozess in ein Video eingebettet, bis der Gesichtsausdruck völlig störungsfrei ist. Der Prozess der Erstellung eines Deepfakes-basierten Videos kann deshalb sehr lange dauern, selbst wenn man nur kurze Clips verwendet.

Die App nutzt TensorFlow, ein künstliches neuronales Netzwerk von Google und benötigt die Leistung eines starken Grafikprozessors.

Prominente Opfer
Um eine Person in ein Deepfake Video einzubinden, werden etwa 300-2000 Bilder eines Gesichts benötigt. Prominente mit viel Bildmaterial im Netz sind deshalb beliebte Opfer. Hollywood-Prominente wie Gal Gadot, Arianna Grande und Taylor Swift haben unter diesem Trend besonders zu leiden. Aber auch die Gesicher von Politikern wie Angela Merkel, Vladimir Putin und Donald Trump wurden durch die App gejagt. Entstanden sind täuschend echte Videos, die jeden Journalisten aufhorchen lassen. Eine Echtheitsprüfung wird zunehmend schwieriger.

Neben Reddit haben Twitter und Pornhub die Nutzung der Deepfake Technologie auf ihren Plattformen verboten. Twitter hat beispielsweise alle Konten verbannt, die KI-generierte Videos posten oder zum Posten solcher Clips verwendet werden.

In diesem durchaus realen Video schimpft Obama über seinen Nachfolger.

Deepfakes zu erkennen wird in Zukunft wohl immer schwieriger werden. Es bleibt zu hoffen, dass es dann Technologien geben wird, um Fälschungen wie diese zu erkennen.

Michael Katzlberger

Michael Katzlberger widmet sich mit Leidenschaft dem Thema Künstliche Intelligenz in der Kreativindustrie, berät Unternehmen und gibt sein Wissen in Seminaren, Lehrveranstaltungen und Gastvorträgen im In- und Ausland weiter. Sein Schwerpunkt liegt hierbei darauf, das Thema KI zu entmystifizieren, um es EPUs, KMUs und der breiteren Öffentlichkeit besser zugänglich zu machen. 2022 gründete er 3LIOT.ai, eine hybride Kreativagentur aus Mensch und KI. Das Ziel: Die Grenzen menschlicher Kreativität zu erweitern.

Alle Beiträge ansehen von Michael Katzlberger →
%d