US-Justiz: Erste Verhaftung wegen KI-generierter Kinderpornografie
Künstliche Intelligenzen sollen unseren Alltag bereichern und uns beim Verfassen von Schriftstücken helfen, Bilder für spezielle Anlässe generieren u.v.m. Doch KIs haben auch ihre Schattenseiten, wie nun der erste registrierte Fall von KI-generierter Kinderpornografie zeigt.
Missbrauch: KI oder nicht, spielt keine Rolle
Behörden und auch Tech-Konzerne kämpfen schon lange gegen sogenanntes Child Sexual Abuse Material (CSAM), doch derartiger Missbrauch spielt sich meist in besonders dunklen und abgelegenen Ecken des Internets ab. Doch manchmal trauen sich die Täter auch weiter nach vorn, vor allem dann, wenn sie zu den falschen rechtlichen und technologischen Schlüssen gelangen.
Denn das US Department of Justice (DoJ) hat kürzlich einen Mann aus dem Bundesstaat Wisconsin verhaftet, dem vorgeworfen wird, mit einem KI-Bildgenerator kinderpornografische Bilder erschaffen und diese auch weitergegeben zu haben (via Ars Technica). Dabei dachte dieser offenbar, dass es in Ordnung sei, solches Material zu erschaffen und zu besitzen. Seiner Ansicht nach lag hier kein Verstoß vor, weil keine echten Menschen bzw. Kinder im Spiel waren - ein Irrtum, wie Deputy Attorney General Lisa Monaco in einer Pressemitteilung klarstellte.
"Die Technologie mag sich ändern, aber unser Engagement für den Schutz der Kinder nicht", sagt Monaco darin und betont, dass es keine Rolle spielt, wie solches Material erzeugt wurde: "Vereinfacht gesagt, ist von KI erzeugtes CSAM immer noch CSAM, und wir werden diejenigen zur Rechenschaft ziehen, die KI ausnutzen, um obszöne, missbräuchliche und zunehmend fotorealistische Bilder von Kindern zu erstellen."
Der 42-jährige Steven A. nutzte dabei einen Fork von Stable Diffusion, um tausende Bilder von Minderjährigen zu erschaffen. Laut dem US-Justizministerium nutzte der Angeklagte spezielle Prompts, einschließlich "negativer Aufforderungen" (zusätzliche Kommandos für das KI-Modell, die ihm sagen, was es nicht produzieren soll und letztlich das Gegenteil erreichen), um den Generator zur Erstellung der CSAM bringen.
Über Instagram erwischt
Mit den Bildern versuchte er auch, einen Unter-16-Jährigen in eine "sexuelle Situation" zu locken. Dieser Austausch fand über Instagram statt, dort wurde das Material entdeckt und über das National Center for Missing and Exploited Children (NCMEC) an die Strafbehörden gemeldet.
Zusammenfassung
- Künstliche Intelligenzen sollen unseren Alltag bereichern und uns unterstützen
- KIs haben auch Schattenseiten, wie KI-generierte Kinderpornografie zeigt
- Behörden und Tech-Konzerne kämpfen gegen Child Sexual Abuse Material (CSAM)
- Das US Department of Justice verhaftete kürzlich einen Mann aus Wisconsin
- Der Mann dachte, KI-generierte Kinderpornografie sei legal, da keine echten Kinder
- Deputy Attorney General Lisa Monaco betonte, dass KI-CSAM ebenfalls illegal ist
- Der Angeklagte nutzte Stable Diffusion, um tausende Bilder von Minderjährigen zu erzeugen
- Er versuchte, einen Unter-16-Jährigen in eine "sexuelle Situation" zu locken
- Das Material wurde über Instagram entdeckt und an die Strafbehörden gemeldet
Ja und Nein! Der Mann wurde ja nicht angeklagt, weil der die Bilder heimlich im Keller erzeugt und auf seinem Rechner gespeichert hat, sondern weil er die Bilder an ein Minderjährigen weitergeleitet hat und potenziell sexuelle Handlungen mit ihm vornehmen wollte. Das ist ein großer Unterschied!
Keine Ahnung wie es im US Recht aussieht, aber bei uns müsste man hier deutlich mehr unterscheiden.