Casa Casi, Folge 13: Deepfakes – Dürfen wir unseren Ohren und Augen noch trauen?
Heute reden wir in unserem NextPit-Podcast "Casa Casi" über Deepfakes und über all das, was unseren Ohren und Augen vorgegaukelt wird. Es eröffnen sich wundervolle Möglichkeiten, aber es lauern auch große gesellschaftliche und kulturelle Gefahren.
Bei der Recherche zur heutigen Folge überlegte ich, wann dieser Hype um Deepfakes eigentlich losging und hab mich fast ein wenig erschrocken, dass es erst so relativ kurze Zeit ist. "Deepfakes" ist der Name eines Reddit-Nutzers, der auf der Plattform 2017 verschiedene Porno-Videos postete. Manipulierte Videos gibt es natürlich schon viel, viel länger, aber diese Deepfakes – Kofferwort aus Deep Learning und Fakes – hebt das ganze Game auf ein neues Level!
Am Anfang stand – wie so oft – die Pornografie
Vermeintlich zu sehen waren in diesen ersten "Deepfakes" Hollywood-Schönheiten wie Scarlett Johansson, Gal Gadot oder Emma Watson. Die Videos waren natürlich gefälscht. Mittels künstlicher Intelligenz wurden neuronale Netze trainiert und so konnten schließlich die Gesichter der Schauspielerinnen auf die Köpfe der Porno-Darstellerinnen montiert werden. Die Software inklusive Anleitung stellte der Nutzer namens "Deepfakes" ebenfalls bereit und so entstand ein gleichnamiger Subreddit, indem sich monatelang viele Tausend Menschen mit ihren selbstgebastelten Fake-Videos tummelten.
Reddit sperrte diesen Subreddit und setzte dem Treiben damit glücklicherweise flott ein Ende. Aber logischerweise bekommt man diesen Geist nicht mehr zurück in die Flasche. Wie so oft hat sich Pornografie hier wieder einmal als Technologie-Treiber betätigt. Pornos entschieden Ende der Siebziger den Kampf ums Videosystem und läuteten damit den Siegeszug der VHS-Cassetten ein.
Ähnliches wiederholte sich mit der Blu-Ray, Online-Videos und Video-Chats, um nur ein paar zu nennen (Vielleicht ein Thema für eine weitere Podcast-Folge, was meint Ihr?). So gesehen wundert es jedenfalls nicht, dass der Deepfake-Trend dafür sorgte, dass anfangs 95 Prozent der veröffentlichten Videos pornografischer Natur waren. Meist waren es prominente Frauen, die auf diese Weise missbraucht wurden, aber es gab auch Revenge Porn, wo enttäuschte Ex-Freunde ihre ehemaligen Partnerinnen bloßstellen wollten.
Letzteres führte übrigens dazu, dass Australien als erstes Land Deepfakes verbot. Die Australierin Noelle Martin stolperte im Netz nämlich über solche Deepfake-Pornos von sich selbst und bereits 2018 stellte Australien das Erstellen und Verbreiten dieser Clips unter Strafe.
Es ist nicht alles schlecht
Ist ein Downer, wenn man eine wirklich beeindruckende Technologie so negativ darstellen muss, was? Tut mir leid, aber der Struggle ist nun mal ziemlich real und ich fürchte, da steht uns noch viel ins Haus. Auf das Thema bekommen bin ich aber ganz anders: Nämlich über einen Beitrag, der die Plattform Uberduck vorstellt. Uberduck ermöglicht es uns, einen beliebigen Text auf der Seite einzugeben – und dann irgendeine prominente Stimme diesen Text sprechen zu lassen.
Für den Podcast habe ich es mit Depeche Modes Text zum Lied "Stripped" in Kombination mit der Deepfake-Version von Eminem probiert. Klingt sehr schräg, es gibt auch erkennbare Glitches, aber nichtsdestotrotz hört es sich so an, als ob der Rapper einen Depeche-Song intoniert. Das halte ich für einen eher ungefährlichen Spaß, ähnlich der Reface-App, die Euch mithilfe eines einzigen Selfies zu Hollywood-Stars, Sänger:innen oder sonst was transformiert in einem GIF oder Video.
Es gibt jede Menge dieser Spielereien und ständig werden es mehr. Das kann man witzig finden, oder auch nicht.Aber selbst diese Spielereien machten Fabi und mir letzten Endes eine Heidenangst in unserem Gespräch, dazu kommen wir jetzt:
Was uns Angst macht:
Es gibt mehrere Gründe, wieso wir diese Deepfakes-Nummer ernst nehmen müssen und nicht als irgendeinen Internet-Kram abtun, der wie eine Hype-Sau ab und an mal durchs WorldWideDorf getrieben wird. Einmal ist da die politische, die gesellschaftliche Ebene: Überlegt Euch, wo wir heute schon stehen bei Fake-News. Aus dem Nichts werden sich Zitate ausgedacht oder aus dem Kontext gerissen, Fakten verdreht oder verkürzt dargestellt und Unwahrheiten in knackige Memes portioniert.
Stellt Euch vor, wie viel Dynamik das gewinnen kann, wenn irgend so ein Querdenker-Mensch nicht nur ein falsches Zitat vom politischen Gegner posten kann, sondern auch noch ein Video an die Hand bekommt, in dem diese Person tatsächlich das auszusprechen scheint, was man ihr vorwirft. Und dieses Problem birgt gleich eine doppelte Gefahr.
- Einmal gibt es diese Videos oder Audiodateien, die die Runde machen werden und die Politiker:innen falsche Worte in den Mund legen.
- Gleichzeitig wird es aber auch immer öfter Zweifel an Aussagen geben und somit Menschen, die tatsächlich authentische Videos als Fake anzweifeln möchten.
Darüber hinaus haben Fabi und ich aber auch Angst davor, was die technischen Möglichkeiten kulturell anrichten könnten. Ich bin großer Fan davon, was technisch möglich ist und schnalze begeistert mit der Zunge, wenn ich beispielsweise sehe, wie das deutsche IT-Consulting Unternehmen TNG Technology Consulting GmbH mit Sitz in Unterföhring Deepfakes in Echtzeit erstellen kann. In solchen Fällen freue ich mich darüber, was technisch machbar ist und auch darüber, dass Deutschland eben technologisch oft gar nicht so abgehängt ist, wie wir manchmal befürchten.
Aber dennoch überwiegt die Angst, dass damit auch ein riesiger Kultur-Clash unsere Musik- und Film-Welt auf den Kopf stellen könnte. Schon heute gibt es von KI komponierte Songs im Stile von den Beatles oder Nirvana. Da können neuronale Netze sich durch den Katalog einer Band ackern und auf der Basis können neue Songs erstellt werden.
Was, wenn wir also in 20 Jahren im Radio einfach Unmengen Songs von den Beatles, den Ramones, von 2Pac oder Elvis hören, die diese Stars niemals selbst intoniert haben? Auch die rechtliche Seite finde ich dabei spannend und das selbe gilt auch für Filme und Serien. Wenn ein Künstler oder eine Künstlerin während eines Drehs verstirbt – Brandon Lee war dafür das erste prominente Beispiel – dann kann diese Technologie wahre Meisterwerke schaffen.
Lest auch: Die fünf größten Gefahren von künstlicher Intelligenz
Aber was, wenn eine Hollywood-Größe wie James Dean posthum zu seiner vierten Hauptrolle kommt? Das ist keine theoretische Überlegung, der Film Finding Jack mit James Dean in einer CGI-Hauptrolle kommt nächstes Jahr in die Kinos. Werden wir also in zehn oder zwanzig Jahren Columbo und Marilyn Monroe zusammen als Detektiv-Duo sehen? Werden Elvis, James Dean, Kurt Cobain und Buddy Holly zusammen als Boygroup auf Tournee gehen?
Ich hab keinen Schimmer, wohin uns all das führt, aber sagt selbst: Der Gedanke allein ist creepy, oder nicht?
Es ist angerichtet: Casa Casi, Folge 13
In der heutigen Folge waren Fabi und ich gleichermaßen fasziniert, aber auch voller Sorge, wohin die Reise geht. Deswegen stimme ich Fabi absolut zu, wenn er im Podcast fordert, dass hier ganz schnell Regierungen aktiv werden müssen. Wir brauchen klare Regelungen, müssen festlegen, was passieren darf und was nicht. Und ja, wir müssen so wie es Australien vormacht, das Verbreiten von Deepfakes unter Strafe stellen, wenn es sich eben nicht um harmlose Späße handelt, sondern zum Beispiel um Rache-Pornos.
Ich tippe mal, dass wir noch Stunden über dieses Thema hätten reden können und immer wieder hin und her gewechselt hätten zwischen der Faszination des technisch Machbaren und diesem Horror vor dem, was uns allen noch blühen könnte.
Abschließend möchte ich gerne Eure Meinung hören. Erfreulicherweise diskutiert Ihr immer sehr zahlreich unter unseren Podcast-Beiträgen und ich würde mir wünschen, dass wir das auch hier wieder tun. Seid Ihr tendenziell eher begeistert von der Technologie oder genauso verunsichert bzw. zwiegespalten wie wir? Seht Ihr die Gefahren eher im Bereich der politischen Ebene, oder eher im kulturellen Bereich? Habt Ihr vielleicht Grund zur Annahme, dass sowohl die Technologie-Riesen wie Facebook, YouTube und Twitter als auch Regierungen an brauchbaren Lösungen arbeiten, die uns die Angst vor Deepfakes nehmen könnten? All das würde ich gerne unten im Kommentarbereich mit Euch besprechen.
Und wie immer gilt: Empfehlt uns gerne weiter, bewertet uns, abonniert uns auf den verschiedenen Plattformen und – ja, selbstverständlich freuen wir uns auch auf Eure Kommentare und Meinungen, gerne auch mit Themen-Ideen für die nächsten Folgen.
keine Frage, KI kann uns weiterbringen, das Problem ist wenn es in den falschen Händen ist. USA gegen Russland, Russland gegen USA, NATO gegen China, wie einfach ist es den Chinesischen Presidenten bestimmte Frames sprechen zu lassen? Ich gehe davon aus das es mit entsprechender Softwäre heraus zu finden sein wird was Fake ist. Das Problem ist das die Menscheit nicht entsprechend gebildet ist um eine solche Software zu bedienen, (sollen auch nicht) wenn ich um mich schaue können die meisten gerade ein Apparat einschalten. Und wehe wlan ist weg, ob die einen Router resetten können? Das ist also viel Lehrarbeit zu leisten damit wir nicht ständig die Fakes als echt ansehen. Wer hat jetzt Lust und wer lehrt es?
In der Tat, wenn künstliche Intelligenz dazu gebraucht werden kann, ala Zeitlupe ein Filmchen zu erstellen, wie ein Gänseblümchen entsteht und wächst, dann wäre das zwar ganz nett anzusehen, aber dieser Film wäre eine Lüge. Und vermutlich nicht von einem in Mühevoller Manueller Arbeit erstellten Zeitlupenfilm zu unterscheiden. Nur so als harmloses Beispiel. Aber Für Autokraten und Diktatoren und Gleichgestellte Religiöse Autoritätspersonen, wäre diese Technic ein Instrument mit dem Unvorstellbarer Schaden möglich wird. Künstliche inteligenz als Werkzeug von Krimminellen? Ich wäre dafür selbige Abzuschaffen bevor sie die Menschheit abschafft. Aber das kann der Mensch auch ohne diese Technick Schaffen, ein Gedanklicher Kurzschluss im Falschen Hirn, und die Erde wird in Schutt und Asche gelegt. Ich mag gar nicht mehr die Nachrichten ansehen was auf dieser Welt alles so passiert.......
Zitat aus obigem Artikel:
"Pornos entschieden Ende der Siebziger den Kampf ums Videosystem"
wenn das stimmt, darf man mal drüber nachdenken, ob es nicht von außerordentlicher Destruktivität zeugt, Menschen im erotischen Bereich zu gängeln.
Sollte das Zitat die Tatsachen widerspiegeln, dann hat die sexuelle Unterdrückung der Bevölkerung das Ziel, die Menschen an der Seele zu verletzen, um sie zu schwächen.
Ich meine Pornos, die ganz normale Liebesspielchen Verliebter zeigen und nicht Kinderpornografie oder die Zerstückelung von Prostituierten. Letzeres ist schwer kriminell, psychisch krank, muss aufgeklärt und die Leute in Sicherheitsverwahrung gesteckt werden.
Ich finde es auch bemerkenswert, wie man einerseits sich an harmlosen Spielchen wie Fakepornos stören kann, während hierzulande gleichzeitig Conterganopfer nie entschädigt und die Verantwortlichen für Medizinverbrechen nie zur Verantwortung gezogen werden.
Das stimmen offensichtlich die ganzen Wertmaßstäbe und Prioritäten nicht.
Oder man verwendet Pornodiskussionen als eine Ablenkung von anderen Dingen.
An "normalen" Pornos mit volljährigen Protagonisten, die freiwillig teilnehmen stören sich in Europa nur Minderheiten. Auch wenn die meisten Streifen eher nicht "normale Liebesspielchen Verliebter zeigen", sondern harten Sex von Personen, die in den Streifen an nicht viel anderem interessiert sind, und die Handlung ansonsten aus nicht viel mehr besteht, wenn es einen Markt dafür gibt, warum sollte man sie nicht herstellen. Fakepornos würde ich aber nicht mehr als harmlos bezeichnen. Die Missachtung des Rechts am eigenen Bild dürfte da noch das kleinste Problem sein.
Gerade in den USA, obwohl der größte Markt für Pornos, sind große Teile der Bevölkerung für ein westliches Land ungewöhnlich prüde. Ein Schauspieler, der dort überwiegend in Familienfilmen und Komödien spielt, kann schnell beruflich ruiniert sein, wenn das Gerücht auftaucht, er habe in Pornos gespielt.
Aber selbst hierzulande könnte ein Personaler, der einen Porno gesehen hat, in den z.B. Dein Bild gefaket wurde, dies zum Anlaß nehmen, Deine Eignung für eine Stelle in Frage zu stellen.
Im Fall der Amanda Todd sah eine Jugendliche keine andere Möglichkeit mehr als den Freitod, weil ein Unbekannter sie mit einem Bild ihrer entblößten Brüste erpresste.
Mit Fakevideos oder Fakefotos lassen sich solche Verbrechen beliebig wiederholen, sofern man nur ein Foto von dem Betroffenen hat, das auch aus einem sozialen Netzwerk stammen kann.
Das ist nicht harmlos, sondern ein massiver Eingriff in die Persönlichkeitsrechte und gehört mit allen technischen und rechtlichen Möglichkeiten bekämpft. Mit dem Contergan-Skandal, so schlimm der auch war, hat das aber nichts zu tun.
Tja, man wird nicht umhinkommen, die Machbarkeit von Fälschungen zu akzeptieren. Es wird für jedermann immer einfacher in vielen Bereichen, einst komplizierte und aufwendige Vorgänge, mit einfach zugänglicher Ausstattung zu reproduzieren. Das wird zur Konsequenz haben, daß z.B. Überwachungsvideos vor Gericht nicht mehr als Beweis dienen können. Oder man hat es einfacher, unliebsame Personen hinter Gitter zu bringen, sollten Gerichte Fakes als unwahrscheinlich bewerten.
Ich bin mir nicht sicher, ob wir sie akzeptieren können. Sie könnten zersetzend sein. Wir müssen uns da etwas Schlaues überlegen, bin ich der Meinung. Außerdem brauchen wir auch einen rechtlichen Rahmen für die Nutzung von Persönlichkeitsrechten – wo fangen diese an, wo hören diese auf. Wahrscheinlich wird es wohl noch in diesem Jahrzehnt sonst zu großen Schwierigkeiten in diesem Bereich kommen.
Da bin ich optimistisch. Digitale Wasserzeichen sind schon mal ein guter Ansatz, Fälschungen zu identifizieren, und sogar die Fälscher dingfest zu machen.
http://www.heise.de/newsticker/meldung/Digitale-Wasserzeichen-Unsichtbarer-Schutz-fuer-Filme-und-Musikstuecke-56919.html
Quelle: heise.de
Ich sagte, die Machbarkeit von Fälschungen. Die sind mit einfachem Aufwandt machbar.
Ich sage nicht, man soll Missbrauch akzeptieren, sondern man muß begreifen, daß von nun an der Spruch: "Die Kamera lügt nicht", nicht mehr gelten kann.
Gefälschte Beweise haben eine lange Geschichte. Das Problem besteht nicht erst seit den heutigen technischen Möglichkeiten. Die technischen Möglichkeiten, Geld zu fälschen gibt es schon lange. Das kann man zwar aufdecken, aber nicht jeder Laie merkt es. Alte Leute, die sich beim Bezahlen von der Kassiererin im Supermarkt assistieren lassen müssen, dürften keine Chance haben, gefälschtes Geld zu erkennen.
Wenn man Geld fäschen kann, dann kann man auch Dokumente fälschen.
Man wird gerade im juristischen Bereich Sachen, deren Fälschung nicht erkannt werden kann, von vornherein als Beweis ausschließen müssen.
Aber vielleicht geht es ja nur darum, uns wieder irgendwelche Einschränkungen aufzudrücken.
Genau, Einschränkungen gibt es ausschließlich, weil die Politik Spaß am Drangsalieren hat und nicht etwa, weil es leider einen Großteil an Menschen gibt, die nicht eigenverantwortlich oder mit Umsicht auf die Mitmenschen mit gewissen Themen umgehen können.
Du warst in deiner Kindheit bestimmt zu Hause der größte Rebell, weil die Schublade mit den Süßigkeiten nicht dauerhaft für dich offen stand.
Wenn die Fälschung, von was auch immer sich nicht von einem Orginal unterscheiden lässt, ist sie dann so echt wie das Oginal?
Manchmal ertappe ich mich dabei, wie ich Dir im Ansatz folgen und sogar einzelnen Aussagen zustimmen kann. Dann muss aber wieder so ein unsinniger Satz am Ende kommen wie "Vielleicht geht es ja nur darum, uns wieder irgendwelche Einschränkungen aufzudrücken". Der Satz ist einfach hanebüchen und das auf vielen Ebenen.
Wow, das ist echt ne harte Nummer. Ich bin mir nicht sicher ob ich es einfach geil finden soll, oder die Angst vor Missbrauch bei Weiterentwicklung der KI überwiegt 🧐 danke auf jeden Fall für das Aufgreifen dieses spannenden Themas.
Ich schick dann mal ein paar Grüße von 2Pac an die Freunde 😉