Wenn plötzlich alle Personen im Film „Herr der Ringe“ das Gesicht von Nicholas Cage haben, dürften die meisten Zuschauer ahnen, dass es sich hierbei um eine Fälschung handelt. Wenn jedoch Barack Obama sagt, dass sein Nachfolger im Weißen Haus ein inkompetenter Idiot sei, wenn auch mit dem Zusatz, dass er das natürlich nie sagen würde, ist das deutlich schwerer zu erkennen. In beiden Fällen wurde eine Künstliche Intelligenz (KI) über das sogenannte Machine Learning trainiert, um Gesichter, Mimik und Stimme der Personen nachahmen zu können. Dafür wird der Computer mit Bildern, Videos und Tonaufnahmen dieser Person gefüttert, bis er eine ausreichend große Menge an Daten hat, um sie künstlich nachzubilden. Dabei gilt: Je mehr Material eingegeben wird, desto besser das Ergebnis. Fehlt dagegen Material, beispielsweise aus einem bestimmten Blickwinkel, wird das Video an dieser Stelle unscharf, denn die KI hat nur die Möglichkeit, Details wegzulassen. Das Resultat ist ein sogenanntes Deepfake-Video.
Deepfakes existieren seit über zwei Jahren. Damals hat ein Nutzer mit dem Pseudonym deepfakes eine Reihe von pornografischen Filmen mit Prominenten in den Hauptrollen auf einer Unterseite der Webseite Reddit hochgeladen, natürlich ohne deren Beteiligung oder Einverständnis. Er hatte einen Code entwickelt, der es ihm erlaubte, beliebige Personen in eine Handlung seiner Wahl einzufügen. Die Deepfakes waren geboren. „Der damalige Code ist als Open Source für jeden frei verfügbar. Mittlerweile existiert sogar eine App, mit der sich solche Videos produzieren lassen. Man braucht nur ausreichend Bildmaterial seiner Zielperson, weswegen besonders häufig Prominente Opfer der Fake-Videos werden. Da aber auch Privatpersonen immer mehr Bilder auf Facebook, Instagram und Co. hochladen, kann sich das auch schnell ändern“, erklärt Götz Schartner vom Verein Sicherheit im Internet e. V., einem der Mitveranstalter von SpardaSurfSafe.
Während die eingangs genannten Beispiele durchaus lustig und harmlos sind, dürfte es für die betroffenen Prominenten weniger witzig gewesen sein, sich selbst in einem Porno wieder zu finden. „Bislang konnte man sich weitgehend darauf verlassen, dass ein Video auch die Realität zeigt. Videobearbeitungen und computergeneriertes Material haben zwar existiert, waren aber teuer, aufwendig und damit nicht allgemein zugänglich. Das hat sich jetzt geändert und man muss genau hinterfragen, ob ein Video echt ist oder nicht. Das birgt auch ein gewisses Risiko, denn auch Politiker können in solche Videos eingefügt werden. Wenn ihre politischen Gegner oder Feinde sie dann Aussagen treffen lassen, die in der Realität schlimme Auswirkungen auf die diplomatischen Beziehungen haben, wird es gefährlich. Auch zu Propagandazwecken lassen sich Deepfakes nutzen, beispielsweise um Wähler zu manipulieren. Zudem werden die Deepfakes immer besser und damit schwieriger zu erkennen“, warnt Schartner.
Da verwundert es nicht, dass Forscher bereits an verschiedenen Software-Lösungen arbeiten, die die Fake-Videos erkennen sollen. Das ist sicher sinnvoll, diese Programme werden aber längst nicht allen Nutzern zeitnah zur Verfügung stehen und ob die Video-Plattformen sie integrieren, wird sich zeigen müssen. Der Experte rät daher, Videos genauso wie Fotos mit einer gewissen Skepsis zu begegnen. Solange es sich um einen harmlosen Spaß handelt, wie Sharon Stone in ihrer Paraderolle in Basic Instinct durch den Schauspieler Steve Buscemi zu ersetzen, halten sich die Schäden in Grenzen. Was jedoch darüber hinausgeht, sollte man durchaus ernst nehmen.