Bei der Recherche zur heutigen Folge überlegte ich, wann dieser Hype um Deepfakes eigentlich losging und hab mich fast ein wenig erschrocken, dass es erst so relativ kurze Zeit ist. "Deepfakes" ist der Name eines Reddit-Nutzers, der auf der Plattform 2017 verschiedene Porno-Videos postete. Manipulierte Videos gibt es natürlich schon viel, viel länger, aber diese Deepfakes – Kofferwort aus Deep Learning und Fakes – hebt das ganze Game auf ein neues Level!
Am Anfang stand – wie so oft – die Pornografie
Vermeintlich zu sehen waren in diesen ersten "Deepfakes" Hollywood-Schönheiten wie Scarlett Johansson, Gal Gadot oder Emma Watson. Die Videos waren natürlich gefälscht. Mittels künstlicher Intelligenz wurden neuronale Netze trainiert und so konnten schließlich die Gesichter der Schauspielerinnen auf die Köpfe der Porno-Darstellerinnen montiert werden. Die Software inklusive Anleitung stellte der Nutzer namens "Deepfakes" ebenfalls bereit und so entstand ein gleichnamiger Subreddit, indem sich monatelang viele Tausend Menschen mit ihren selbstgebastelten Fake-Videos tummelten.
Reddit sperrte diesen Subreddit und setzte dem Treiben damit glücklicherweise flott ein Ende. Aber logischerweise bekommt man diesen Geist nicht mehr zurück in die Flasche. Wie so oft hat sich Pornografie hier wieder einmal als Technologie-Treiber betätigt. Pornos entschieden Ende der Siebziger den Kampf ums Videosystem und läuteten damit den Siegeszug der VHS-Cassetten ein.
Ähnliches wiederholte sich mit der Blu-Ray, Online-Videos und Video-Chats, um nur ein paar zu nennen (Vielleicht ein Thema für eine weitere Podcast-Folge, was meint Ihr?). So gesehen wundert es jedenfalls nicht, dass der Deepfake-Trend dafür sorgte, dass anfangs 95 Prozent der veröffentlichten Videos pornografischer Natur waren. Meist waren es prominente Frauen, die auf diese Weise missbraucht wurden, aber es gab auch Revenge Porn, wo enttäuschte Ex-Freunde ihre ehemaligen Partnerinnen bloßstellen wollten.
Letzteres führte übrigens dazu, dass Australien als erstes Land Deepfakes verbot. Die Australierin Noelle Martin stolperte im Netz nämlich über solche Deepfake-Pornos von sich selbst und bereits 2018 stellte Australien das Erstellen und Verbreiten dieser Clips unter Strafe.
Es ist nicht alles schlecht
Ist ein Downer, wenn man eine wirklich beeindruckende Technologie so negativ darstellen muss, was? Tut mir leid, aber der Struggle ist nun mal ziemlich real und ich fürchte, da steht uns noch viel ins Haus. Auf das Thema bekommen bin ich aber ganz anders: Nämlich über einen Beitrag, der die Plattform Uberduck vorstellt. Uberduck ermöglicht es uns, einen beliebigen Text auf der Seite einzugeben – und dann irgendeine prominente Stimme diesen Text sprechen zu lassen.
Für den Podcast habe ich es mit Depeche Modes Text zum Lied "Stripped" in Kombination mit der Deepfake-Version von Eminem probiert. Klingt sehr schräg, es gibt auch erkennbare Glitches, aber nichtsdestotrotz hört es sich so an, als ob der Rapper einen Depeche-Song intoniert. Das halte ich für einen eher ungefährlichen Spaß, ähnlich der Reface-App, die Euch mithilfe eines einzigen Selfies zu Hollywood-Stars, Sänger:innen oder sonst was transformiert in einem GIF oder Video.
Es gibt jede Menge dieser Spielereien und ständig werden es mehr. Das kann man witzig finden, oder auch nicht.Aber selbst diese Spielereien machten Fabi und mir letzten Endes eine Heidenangst in unserem Gespräch, dazu kommen wir jetzt:
Was uns Angst macht:
Es gibt mehrere Gründe, wieso wir diese Deepfakes-Nummer ernst nehmen müssen und nicht als irgendeinen Internet-Kram abtun, der wie eine Hype-Sau ab und an mal durchs WorldWideDorf getrieben wird. Einmal ist da die politische, die gesellschaftliche Ebene: Überlegt Euch, wo wir heute schon stehen bei Fake-News. Aus dem Nichts werden sich Zitate ausgedacht oder aus dem Kontext gerissen, Fakten verdreht oder verkürzt dargestellt und Unwahrheiten in knackige Memes portioniert.
Stellt Euch vor, wie viel Dynamik das gewinnen kann, wenn irgend so ein Querdenker-Mensch nicht nur ein falsches Zitat vom politischen Gegner posten kann, sondern auch noch ein Video an die Hand bekommt, in dem diese Person tatsächlich das auszusprechen scheint, was man ihr vorwirft. Und dieses Problem birgt gleich eine doppelte Gefahr.
- Einmal gibt es diese Videos oder Audiodateien, die die Runde machen werden und die Politiker:innen falsche Worte in den Mund legen.
- Gleichzeitig wird es aber auch immer öfter Zweifel an Aussagen geben und somit Menschen, die tatsächlich authentische Videos als Fake anzweifeln möchten.
Darüber hinaus haben Fabi und ich aber auch Angst davor, was die technischen Möglichkeiten kulturell anrichten könnten. Ich bin großer Fan davon, was technisch möglich ist und schnalze begeistert mit der Zunge, wenn ich beispielsweise sehe, wie das deutsche IT-Consulting Unternehmen TNG Technology Consulting GmbH mit Sitz in Unterföhring Deepfakes in Echtzeit erstellen kann. In solchen Fällen freue ich mich darüber, was technisch machbar ist und auch darüber, dass Deutschland eben technologisch oft gar nicht so abgehängt ist, wie wir manchmal befürchten.
Aber dennoch überwiegt die Angst, dass damit auch ein riesiger Kultur-Clash unsere Musik- und Film-Welt auf den Kopf stellen könnte. Schon heute gibt es von KI komponierte Songs im Stile von den Beatles oder Nirvana. Da können neuronale Netze sich durch den Katalog einer Band ackern und auf der Basis können neue Songs erstellt werden.
Was, wenn wir also in 20 Jahren im Radio einfach Unmengen Songs von den Beatles, den Ramones, von 2Pac oder Elvis hören, die diese Stars niemals selbst intoniert haben? Auch die rechtliche Seite finde ich dabei spannend und das selbe gilt auch für Filme und Serien. Wenn ein Künstler oder eine Künstlerin während eines Drehs verstirbt – Brandon Lee war dafür das erste prominente Beispiel – dann kann diese Technologie wahre Meisterwerke schaffen.
Lest auch: Die fünf größten Gefahren von künstlicher Intelligenz
Aber was, wenn eine Hollywood-Größe wie James Dean posthum zu seiner vierten Hauptrolle kommt? Das ist keine theoretische Überlegung, der Film Finding Jack mit James Dean in einer CGI-Hauptrolle kommt nächstes Jahr in die Kinos. Werden wir also in zehn oder zwanzig Jahren Columbo und Marilyn Monroe zusammen als Detektiv-Duo sehen? Werden Elvis, James Dean, Kurt Cobain und Buddy Holly zusammen als Boygroup auf Tournee gehen?
Ich hab keinen Schimmer, wohin uns all das führt, aber sagt selbst: Der Gedanke allein ist creepy, oder nicht?
Es ist angerichtet: Casa Casi, Folge 13
In der heutigen Folge waren Fabi und ich gleichermaßen fasziniert, aber auch voller Sorge, wohin die Reise geht. Deswegen stimme ich Fabi absolut zu, wenn er im Podcast fordert, dass hier ganz schnell Regierungen aktiv werden müssen. Wir brauchen klare Regelungen, müssen festlegen, was passieren darf und was nicht. Und ja, wir müssen so wie es Australien vormacht, das Verbreiten von Deepfakes unter Strafe stellen, wenn es sich eben nicht um harmlose Späße handelt, sondern zum Beispiel um Rache-Pornos.
Ich tippe mal, dass wir noch Stunden über dieses Thema hätten reden können und immer wieder hin und her gewechselt hätten zwischen der Faszination des technisch Machbaren und diesem Horror vor dem, was uns allen noch blühen könnte.
Abschließend möchte ich gerne Eure Meinung hören. Erfreulicherweise diskutiert Ihr immer sehr zahlreich unter unseren Podcast-Beiträgen und ich würde mir wünschen, dass wir das auch hier wieder tun. Seid Ihr tendenziell eher begeistert von der Technologie oder genauso verunsichert bzw. zwiegespalten wie wir? Seht Ihr die Gefahren eher im Bereich der politischen Ebene, oder eher im kulturellen Bereich? Habt Ihr vielleicht Grund zur Annahme, dass sowohl die Technologie-Riesen wie Facebook, YouTube und Twitter als auch Regierungen an brauchbaren Lösungen arbeiten, die uns die Angst vor Deepfakes nehmen könnten? All das würde ich gerne unten im Kommentarbereich mit Euch besprechen.
Und wie immer gilt: Empfehlt uns gerne weiter, bewertet uns, abonniert uns auf den verschiedenen Plattformen und – ja, selbstverständlich freuen wir uns auch auf Eure Kommentare und Meinungen, gerne auch mit Themen-Ideen für die nächsten Folgen.
Kommentare
Kommentare
Beim Laden der Kommentare ist ein Fehler aufgetreten.