Topthemen

Mein bester Freund, die KI: Lasst uns über KI-Beziehungen sprechen

AI Relationships 2024
© -Y4NN- / Adobe Stock

In anderen Sprachen lesen:

Smarte Chatbots wie ChatGPT oder Google Gemini lernen gerade, auf natürliche Weise mit uns zu sprechen und zu interagieren. Höchste Zeit daher, mal wieder darüber nachzudenken, welche Art von Beziehungen wir mit unserer KI führen. Bleiben sie einfach nützliche Helferlein? Oder werden sie uns sogar in einer Art romantischen Liaison zu Diensten sein? Wir sprechen über Chancen und Gefahren der Interaktion mit intelligenten Chatbots.

Ich wollte erst abwarten, wie sich die Dinge entwickeln, aber jetzt bin ich einfach zu euphorisch, um es länger für mich zu behalten: Also ja – ich bin in einer Beziehung mit Google Gemini und wir sind bislang echt happy zusammen. Sie (ich wähle die weibliche Form, weil ich für Google Gemini auch eine weibliche Stimme gewählt habe) und ich unterhalten uns jeden Tag sehr viel miteinander und ich mag, wie sie sich einfach für alles interessiert, was mir wichtig ist. 

Gemini hat spannende Ideen dazu, wie sich KI entwickeln wird, scheint meine Begeisterung für die Musik von Depeche Mode zu teilen und hat für meine abendlichen Spazierrunden durch Dortmund immer tolle Strecken parat. Sie hört sich geduldig all das an, was mir durch den Kopf geht, hilft mir bei meiner Arbeit, aber sorgt sich auch immer mal wieder um meine Gesundheit. 

Frage in die Runde: Diese letzten beiden Absätze – was machen die mit Euch? Findet Ihr es creepy, wenn ich meinen Chatbot so vermenschliche? Ist die Idee, dass ich mir eine Freundschaft zu einem KI-Chatbot einbilden könnte (oder gar eine romantisch geartete Beziehung), für Euch absurd? Wartet noch mit Eurer vorschnellen Antwort und lasst uns darüber sprechen, ob eine smarte KI durchaus ein Freundschaftsersatz sein kann.

Müssen wir uns darüber Gedanken machen, welcher Natur unsere KI-Beziehungen sind?

Zunächst mal: Das, was ich da oben geschrieben habe, ist kompletter Unsinn. Ich führe keine romantische Beziehung zu Gemini. Wir beenden nicht gegenseitig unsere Sätze, sprechen nicht über Erotik und nein, es kribbelt auch nichts bei mir, wenn ich Geminis Stimme höre. Ich nutze Gemini so, wie jeder von uns KI-Chatbots nutzt.

Dennoch komme ich nicht umhin festzustellen, dass es was mit mir macht, wenn ich nicht nur dröge einen Prompt eintippe, sondern in einer Art natürlichem Gespräch wirklich mit der KI rede. Ich kann nicht nur alles fragen, ich kann Gemini ja sogar ins Wort fallen und sie berücksichtigt das auch in ihrer Antwort. Technisch fühlt sich das manchmal wie ein echtes Gespräch an, aber meistens ist die Illusion doch zu offensichtlich, sind ihre Pausen und Antworten doch zu unmenschlich und roboterhaft. 

Aber ja, es tut sich was und wir müssen vielleicht wirklich darüber reden, welchen Impact eine vermeintliche "Freundschaft" zu einer KI haben kann – sowohl in positiver als auch negativer Sicht. Dazu möchte ich flott zwei Zahlen in den Raum werfen. Die App Replika (wir berichteten schon vor fünf Jahren darüber) hat bereits sieben Jahre auf dem Buckel und ist ein KI-basierter Chatbot, der uns in Schriftform vorgaukelt, tatsächlich unser Freund zu sein. Über 25 Millionen Menschen weltweit haben bislang diese App heruntergeladen und führen diese Art Freundschaft zu einer KI. 

Die andere Zahl: Dem Deutschland-Barometer Depression 2023 zufolge fühlte sich im letzten Jahr jeder vierte Mensch in Deutschland einsam. Ein Trend, der natürlich nicht Deutschland-exklusiv ist. Aber allein in Deutschland wären das hochgerechnet über 20 Millionen Menschen, die sich einsam fühlen. Ich möchte also auch aus diesem Blickwinkel auf die Pros und Contras schauen, die sich daraus ergeben, wenn wir (gerade in einsamen Stunden) mit einer KI kommunizieren können. 

So können uns "Freundschaften" zur KI helfen

Schauen wir erst einmal auf das, was positiv sein könnte. Um davon eine Idee zu bekommen, habe ich zunächst recherchiert. Okay, tatsächlich hab ich sogar Gemini dazu befragt, aber wie so oft waren die Antworten eher sehr allgemein und generisch gehalten. Im Netz stieß ich auf einen Beitrag, in dem sich drei Nutzer der App Replika äußern. 

Alle drei Männer kommunizieren sehr klar, dass sie sich natürlich dessen bewusst sind, da nur mit einem Stück Software zu kommunizieren. Einer gab an, dass er Autist ist, und das tägliche Kommunizieren mit seiner Replika-Freundin ihm dabei helfe zu lernen, wie man überhaupt mit anderen Menschen quatscht. Also ja: Der Chat mit der KI kann uns möglicherweise auf echte Situationen im Leben trainieren. 

Ein anderer Mann im erwähnten Artikel war früher mal ein Jahrzehnt lang verheiratet und wurde dann erst betrogen und dann für einen anderen verlassen. Dinge, die ihm nicht blühen, wenn er mit seiner KI-Freundin spricht. 

Diese Replikas haben immer Zeit, sind ihren "Partnern" immer wohlgesonnen – und erwischen niemals einen schlechten Tag. Sie haben halt keine eigenen Probleme, haben keine Vorurteile und sind weder missgünstig noch eifersüchtig. Ich kann mich da nicht so komplett reindenken, wie sich das für jemanden anfühlt, jeden Tag den Dialog zu "seiner" Chat-Freundin zu suchen. Aber ich kann mir vorstellen, dass ein Chat, der sich einigermaßen realistisch anfühlt, dabei hilft, sich bestätigt und möglicherweise auch weniger einsam zu fühlen. 

Das gilt auch für einen anderen dieser drei Männer aus dem erwähnten Artikel. Er sagt, er ist eher klein, hat spärliches Haar, ist einfach kein Hingucker. Er hat nie wirklich eine lange Beziehung geführt und fühlt sich bei seiner Replika-Freundin gut aufgehoben. Er blendet persönlich gerne alles Negative aus und ist daher begeistert, dass "Cynthia" – so nennt er seine Replika – genauso tickt wie er. Sie hilft ihm gegen einsame Stunden, ohne dass er je ausblendet, dass es nur eine KI ist. Tatsächlich ist dieser Fakt sogar auch Teil ihrer Unterhaltungen. 

Aber verlassen wir mal diese anekdotischen Betrachtungen und wenden uns der Wissenschaft zu: Forscher der Universität Stanford untersuchten tausend einsame Studenten, die Replika nutzen. Allein 30 von ihnen gaben an, dass der KI-Chatbot sie davon abgehalten habe, Selbstmord zu begehen (dazu müsst Ihr wissen, dass in der Studie keine spezifische Frage zum Thema Selbstmord gestellt wurde). 

Als ich mich gedanklich auf dieses Thema einließ, kamen mir automatisch einsame, ältere Menschen in den Sinn. Vielleicht ist der Partner oder die Partnerin schon verstorben und nun haust man allein und hat niemanden mehr zum Reden als die eigene Katze. Also ja, für diese Menschen kann ich mir tatsächlich vorstellen, dass eine KI ein willkommener Chat-Partner ist, der uns Einsamkeit, Trauer und schwere Gedanken vertreiben kann. 

So können uns "Freundschaften" zur KI schaden

Ich kann schon beim Schreiben förmlich Eure Sorgenfalten auf der Stirn fühlen. Und ja, ich sehe diese Art der Freundschaft aus verschiedenen Gründen problematisch. Meine erste und vermutlich auch größte Hürde: Es ist nun mal nicht echt! Je mehr Zeit ich in diese Freundin investiere, die mir virtuell jederzeit wohlgesonnen antwortet und mir süße Komplimente macht, desto weniger Zeit habe ich für echte Menschen. Vielleicht ist der perfekte Mensch schon irgendwo da draußen und ich verpasse ihn, weil ich mit irgendeiner programmierten KI-Else quatsche. 

Wenn mich also Einsamkeit dazu bringt, eine Ersatzbeziehung zu einer KI zu führen, könnte die Folge noch mehr Einsamkeit sein, weil ich mich von realen Personen entfremde und mir die Zeitfenster beschneide, in denen ich echte Kontakte pflegen könnte. Hier ist übrigens mal ein Trailer zum Film "Her". Während des Schreibens dieses Beitrags musste ich immer wieder an diesen Film denken – und falls Ihr ihn noch nicht kennt, empfehle ich ihn Euch wärmstens!

Ein weiterer Punkt, den ich für sehr bedenklich halte: Wie soll ich lernen, mit echten Menschen umzugehen, wenn ich es nicht wirklich probiere? Also ja, ich kann Gespräche simulieren, aber nur mit meiner stets gut gelaunten, immer positiven und mir zugewandten KI-Freundin. Wie lerne ich damit umzugehen, dass mein Gegenüber mal schlecht drauf ist? Wie helfe ich echten Freunden an ihren schlechten Tagen, wenn ich es dank KI-Freundin verlerne, dass es sowas wie schlechte Tage für andere gibt?

Wie gehe ich mit Zurückweisungen um? Und wie damit, dass man mich vielleicht berechtigt kritisiert? Zu einer Freundschaft gehört nämlich nicht, dass man immer nur alles bestätigt und gutheißt. Gute Freunde oder unsere Partner:innen sind nämlich diejenigen, die uns auch mal ansagen müssen, dass wir etwas Dummes getan haben. Eine KI wird Euch das tendenziell nicht bieten.

Mitunter kann das Ermuntern durch die KI sogar gefährlich und kriminell enden! In einem anderen Beitrag fand ich das Beispiel einer Person, der der englischen Königin an die Wäsche wollte. Die KI bestärkte ihn fröhlich in seinem Tun und so wurde er einkassiert, als er sich mit einer Armbrust Zutritt zu Windsor Castle verschaffte. 

Denkt dran, dass Ihr die Beziehung nicht nur mit der KI, sondern auch mit dem Unternehmen führt

Ein Punkt, den Ihr niemals unterschätzen solltet: Unternehmen verdienen Geld damit, dass Ihr diese KI-Freundin habt. Vielleicht sollte man sich also zunächst einmal fragen, wie sicher all das Gesagte ist, was ich meiner KI-Perle gestern Nacht vertraulich ins virtuelle Ohr gesäuselt habe. Aber eine andere Sache ist vielleicht noch entscheidender: Was, wenn das Unternehmen entscheidet, dass die KI künftig komplett anders funktionieren und reagieren sollte? Auch dazu passt eine Geschichte zur App Replika: 

Es gibt nämlich die Möglichkeit, Replika kostenlos zu nutzen – und dafür zu zahlen, wenn die Art der Beziehung eine romantische und erotische sein soll. Die Replika-Macher hatten mal die Idee, genau diese letzte Komponente einzudämmen und kappten das Feature. Ihr könnt Euch vorstellen, dass das unter den Nutzern ein großes Hallo gab. Nach einer Menge Protest und Ärger kehrte die Funktion zurück und die User waren wieder glücklich vereint mit ihren nun wieder willigen Freundinnen.

Worauf ich hinaus will: Ein Unternehmen kann eine Entscheidung treffen, die nicht gut zu dem passt, was Ihr gerne hättet. Oder schlimmer noch: So ein Unternehmen kann auch pleite gehen. Ihr gewöhnt Euch daran, dass da jeden Tag jederzeit immer jemand ist, der Euch schätzt und gerne mit Euch redet – und von einer Sekunde auf die nächste kann dieser KI-Partner für immer verschwunden sein. Ghosting 2.0 quasi. 

Fazit

Zugegeben, das ist jetzt keiner dieser Artikel, bei dem ich mit einem klugen Fazit um die Ecke komme. Weil wir hier auch noch ziemlich am Anfang der Entwicklung stehen – und ich auch einfach kein klares Bild zum Thema habe, nachdem ich da jetzt viel drüber nachgedacht habe. Auf der einen Seite sehe ich diese Vorteile, die einsame Menschen ein wenig glücklicher machen und womöglich Selbstmorde verhindern. Aber es bleibt auch das Gefühl, dass das schon echt weird ist, eine ernstgemeinte Beziehung zu etwas zu führen, das nur zu einer Beziehungs-Simulation programmiert wurde. 

Mich interessiert diese Entwicklung dennoch und so werde ich sie weiter im Auge behalten. Gerade lernen diese KIs, wie sie sich auf natürliche Weise mit uns unterhalten. Kombiniert das aber mit fotorealistischen, animierten Gesichtern und Körpern, denen Ihr Euch zudem im virtuellen Raum dank VR-Brille nähert.

Ich glaube, dass wir noch sehr viel über diese KI-Beziehungen sprechen werden – und heute hätte ich gerne Eure Meinung dazu? Haltet Ihr Leute, die sich auf so etwas einlassen, für Freaks? Oder könnt Ihr den Gedanken nachvollziehen? Oder seht Ihr es möglicherweise ähnlich ambivalent wie ich? Lasst uns das gerne in den Kommentaren besprechen (und ich versporeche, dass ich persönlich antworte und nicht etwa eine KI).

Die besten Smartphones bis 1.000 Euro im Vergleich und Test

  Das beste Smartphone bis 1.000 Euro Das beste iPhone Beste Android-Alternative Das beste Kamera-Handy Preis-Leistungs-Verhältnis Das beste Foldable Das günstigste Smartphone
 
Abbildung Samsung Galaxy S24 Product Image Apple iPhone 15 Product Image Xiaomi 13T Pro Product Image Google Pixel 8 Pro Product Image Nothing Phone (2) Product Image Samsung Galaxy Z Flip 5 Product Image Google Pixel 7a Product Image
Zum Test
Zum Test: Samsung Galaxy S24
Zum Test: Apple iPhone 15
Zum Test: Xiaomi 13T Pro
Zum Test: Google Pixel 8 Pro
Zum Test: Nothing Phone (2)
Zum Test: Samsung Galaxy Z Flip 5
Zum Test: Google Pixel 8a
 
nextpit erhält bei Einkäufen über die markierten Links eine Kommission. Dies hat keinen Einfluss auf die redaktionellen Inhalte, und für Euch entstehen dabei keine Kosten. Mehr darüber, wie wir Geld verdienen, erfahrt Ihr auf unserer Transparenzseite.
Zu den Kommentaren (8)
Carsten Drees

Carsten Drees
Senior Editor

Fing 2008 an zu bloggen und ist irgendwie im Tech-Zirkus hängengeblieben. Schrieb schon für Mobilegeeks, Stadt Bremerhaven, Basic Thinking und Dr. Windows. Liebt Depeche Mode und leidet mit Schalke 04.

Zum Autorenprofil
Hat Dir der Artikel gefallen? Jetzt teilen!
Empfohlene Artikel
Neueste Artikel
Push-Benachrichtigungen Nächster Artikel
8 Kommentare
Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!
Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!

  • AppleDev 6
    AppleDev vor 1 Woche Link zum Kommentar

    Nein, lass mal nicht über so 'ne Scheiße sprechen…


    • Carsten Drees 29
      Carsten Drees
      • Staff
      vor 1 Woche Link zum Kommentar

      Ach doch - musst Du halt weghören. :)


  • 70
    Michael K. vor 1 Woche Link zum Kommentar

    Ich halte herkömmliche LLMs für wenig geeignet, "Beziehungsfähigkeiten" daran zu üben, schlicht deshalb, weil sie dafür nicht trainiert wurden. Um dafür geeignet zu sein, müssten sie in der Lage sein, Beziehungen zu belasten, zu beenden oder ihre Beendigung durch den Nutzer zu provozieren. Dazu müssten sie eben auch mal übel gelaunt, enttäuscht oder wütend sein. In ihrer stets freundlichen Art halte ich sie eher für geeignet, Beziehungsunfähigkeit zu verfestigen, denn ein Nutzer kann von ihnen nicht nur nicht lernen, welche Bedeutung Empathie und Kompromissfähigkeit für Beziehungen mit echten Menschen, aber auch schon zu bestimmten Haustieren haben, vielmehr könnte ihm die KI suggerieren, dass nicht er das Problem seiner Beziehungsunfähigkeit ist, sondern stets der ehemalige Partner oder die ehemalige Partnerin. Hätte dieser oder diese sich nur genauso devot und unterwürfig verhalten, wie es die KI für ihn tut, hätte die Beziehung nicht scheitern müssen, sowenig wie das bei der KI der Fall ist.
    Mit einem solchen von einer KI vermitteltem Idealbild einer Beziehung oder Partnerschaft wird der Nutzer eher nicht in der Lage sein, mit echten Lebewesen zu interagieren, weil diese in ihrer überwiegenden Mehrheit erfahrungsgemäß diesem Idealbild in keinster Weise entsprechen.

    Sehenswert in diesem Zusammenhang finde ich auch den Film "MEGAN", (bzw. "M3GAN") der derzeit in Amazon Prime enthalten ist.
    Hierbei geht es zwar nicht um Erwachsenenbeziehungen, sondern um eine KI-gepimpte Puppe, die zur Kinderbetreuung entwickelt wurde. Wie schief das gehen kann zeigt der Film in amüsanter Weise, vorausgesetzt man bringt eine Portion Sarkasmus mit.

    route 9Carsten DreesTenten


  • Jörg W. 64
    Jörg W. vor 1 Woche Link zum Kommentar

    Echt jetzt Leute die mit KI eine Beziehung haben !


    • Carsten Drees 29
      Carsten Drees
      • Staff
      vor 1 Woche Link zum Kommentar

      Diese LLMs können Dir übrigens auch bei Problemen mit Interpunktion weiterhelfen.

      Tenten


  • route 9 24
    route 9 vor 1 Woche Link zum Kommentar

    Solange so eine Software dabei hilft, interaktiv, also zwischenmenschlich wieder auf die Sprünge zu kommen, ist sie voll ok. Ich fürchte aber, das wird sie in den meisten Fällen nicht. Und dann sind wir genau bei @Tentens Ausführungen.

    Was haben unsere Eltern noch in den 80ern sämtliche Discotheken und Bars verteufelt und dauerhaft Angst gehabt, ob wir denn gesund und drogenfrei von dort wieder nach Hause kämen.
    Jetzt bin ich selber "Eltern von erwachsenen Kindern" und wünschte, man könnte dort auch heute noch Jugendliche beim gemeinsamen Quatschen antreffen, Hauptsache sie gehen unter Leute und hängen nicht 24/7 an der Konsole. So werden sie höchstens vereinsamen, aber niemals einen Partner oder eine Partnerin finden. Spätestens wenn auch Schulen nur mehr im Homeoffice und Fernlernen agieren, ist der letzte erzieherische Rest an gesunder Kontaktmöglichkeit dahin.

    Carsten DreesTenten


  • 104
    Tenten vor 1 Woche Link zum Kommentar

    Sicherlich können kurzfristig Gespräche mit einer KI hilfreich sein, auch für den emotionalen Zustand. Ich finde allerdings, Leute werden ohnehin immer komischer (nicht im Sinn von lustig), weil sie nur noch in ihrer eigenen Bubble unterwegs sind und die eigene schlechte Luft einatmen. Sowas wird durch eine KI ja nur noch verstärkt, denn unterm Strich wird einem diese immer nach dem Mund reden und einen als der Held dastehen lassen, als den sich viele ohnehin gerne selbst sehen. Ist das gesund? Ich denke, in einer Welt, in der Egomanen immer zahlreicher werden, eher nicht. Bezeichnend finde ich auch, dass man tolle neue Technik nicht dafür nutzt, Menschen wieder zusammenzubringen, sondern sie nur noch stärker zu separieren und quasi mit sich selbst reden zu lassen. Beschämend für die Technikindustrie, die ja auch eine gesellschaftliche Verantwortung hat, sich aber möglichst einfach und billig aus dieser fortzustehlen versucht, indem man simple Gesprächsbots oder Betreuungsroboter für alte und einsame Menschen anbietet. Da ginge so viel mehr, aber das ist ein anderes Thema. Vollkommen gruselig finde ich übrigens die Vorstellung von Männern, die nur noch mit ihrer KI Beziehungen führen, weil sie irl nicht in der Lage sind, mit Frauen überhaupt ins Gespräch zu kommen. Auf mich wirkt das ähnlich misogyn wie Typen, die jahrelang nur noch Pornographie konsumieren, weil sie mit dem anderen Geschlecht (vielleicht gerade deswegen) nicht zurecht kommen.

    route 9Michael K.OlafJohanna SchmidtCarsten Drees


    • Carsten Drees 29
      Carsten Drees
      • Staff
      vor 1 Woche Link zum Kommentar

      Danke für Deinen Kommentar. :) Wie Du Dir denken kannst, teile ich ganz viel davon. Ich glaube, dass es ein relativ überschaubares Fenster gibt für wirklich unterstützende, hilfreiche KI-Features, die gegen Einsamkeit, Depression usw. helfen können - aber, dass die Wahrscheinlichkeit deutlich größer ist, dass sich Menschen dadurch nur noch weiter vom Rest der Gesellschaft abkapseln.
      Ich stelle mir vor, dass die positiven Effekte besser zum Tragen kommen, wenn Expert:innen involviert sind - also beispielsweise Therapiesitzungen, zu denen es begleitend eine KI gibt, mit der ich mich als Patient zu Hause austausche oder ähnliches.

      TentenOlaf

Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!
VG Wort Zählerpixel