Casa Casi 97: KI – maximal unser zweitgrößtes Problem
Ja, wir müssen nochmal über KI reden. Oder anders: Casi redet heute über Künstliche Intelligenz – allein. Im NextPit-Podcast erklärt er seinen Mitstreitern, wieso er KI durchaus für ein Problem hält, aber sicher nicht für das größte der Menschheit. Und ja, er verrät natürlich auch, was er für das größte Problem der Menschheit hält.
Manchmal ist das so: Da quälen einen Gedanken und verhindern, dass man in den Schlaf findet. Und wenn ich in so einer Situation bin und viel zu viel grüble, verschicke ich Sprachnachrichten und quäle auch andere mit meinen Gedanken. In diesem Fall waren es Gedanken zum Thema Künstliche Intelligenz und die Empfänger waren meine eifrigen Podcast-Gefährten Palle und Fabi.
Aber natürlich sollen nicht nur die beiden Jungs meine Ideen mitbekommen, sondern Ihr alle ebenso. Gruß übrigens an unseren NextPit-Leser TenTen, der jüngst erklärte, dass man nicht immer Zeit hat für 'ne Stunde Podcast, durchaus aber zehn Minuten fürs Lesen eines Artikels. Heute hab ich mir Mühe gegeben und sowohl einige meiner Gedanken auf Substack in den Artikel gepackt – und die Länge des Podcasts auf gut 20 Minuten gedrückt. ;)
Ich hoffe, dass Ihr Spaß damit habt, auch wenn es kein Gag-Feuerwerk ist diesmal, und auch die glockenklaren Stimmen meiner Mistreiter fehlen. Gebt bitte mal Laut, wie Ihr das Thema betrachtet: Bin ich da auf dem Holzweg, oder könnt Ihr meinen Ansatz nachvollziehen? Besten Dank für Euren Support seit fast 100 Folgen, fürs Hören, Teilen und Kommentieren!
Casa Casi 97: Show Notes
Wir wollen euer Feedback! Diskutiert mit uns unter diesem Beitrag und verratet uns eure Meinung. Ihr könnt euch aber auf WhatsApp, Signal und Threema mit Sprachnachrichten (und natürlich auch Textkommentaren) beteiligen. Wir freuen uns auf eure Reaktionen, auf Lob, Kritik und Verbesserungsvorschläge und natürlich auch auf spannende Themenvorschläge. Hier ist unsere Telefonnummer und unsere Threema-ID für euer Feedback:
- Telefonnummer: +49 160 98090008
- Threema-ID: EB6YBNSE
Vielen Dank für die Grüße und natürlich auch liebe Grüße zurück. 21 Minuten, das werde ich heute definitiv unterbringen, ich freue mich schon drauf. Und ja, es passiert tatsächlich sehr viel in Sachen KI, täglich gibt es neue Meldungen. Nur leider nicht bei Nextpit. Bitte bleibt doch nicht unter euren journalistischen Möglichkeiten und vor allem Fähigkeiten 👍
Ich sehe aktuell zwei Gefahren durch KI. Zum einen, dass viele gar keine genaue Vorstellung davon haben, wie heutige KI funktioniert. Da gehen viele noch davon aus, dass da ein Algorithmus abläuft, den man eben mal schnell prüfen, kontrollieren und anpassen könne.
Wie sonst käme man auf die Idee, heutige Modelle für Suchanfragen zu verwenden? Oder gar möglichst simple Nachvollziehbarkeit per Gesetz zu verlangen?
Das andere Problem, das ich sehe, besteht im Datenpool, der zum Lernen der KI verwendet wird. Um hier möglichst breit aufgestellt zu sein, greift man natürlich auf das Internet zurück. Dessen Daten bestehen aber heute bereits nicht nur aus Wahrheit und Wirklichkeit und diese Entropie wird in Zukunft nur noch mehr zunehmen, je mehr KI wir zum Erzeugen neuer Daten verwenden. Die KI fantasiert sich etwas zusammen und lernt dann daraus erneut. Man muss hier gar nicht die Vererbungslehre bemühen, um zu erkennen, dass dabei nichts herauskommen wird, das irgendjemand nutzen könnte, außer vielleicht denen, die es sich zur Aufgabe gemacht haben, Unwahrheiten zu etablieren und Verschwörungstheorien zu verbreiten.
Danke, mein Lieber. Und ja, ich finde auch, NextPit müsste das Thema KI stärker abbilden und wir überlegen auch, wie wir das machen können, so dass es in den Kontext zu allen anderen Themen passt, die wir beackern.
Und schon vor Deinem Kommentar hab ich mich ein bisschen geärgert, dass ich in der heutigen Folge den Punkt nicht mitberücksichtigt habe, den Du jetzt auch nennst: Stimmt nämlich natürlich, was Du schreibst – wir müssen drauf schauen, womit die KI gefüttert wurde. Selbst dann, falls nur "Wahrheit" berücksichtigt würde (und so ist es natürlich nicht), wäre es eine Wahrheit, die einer Welt entstammt, die im Wesentlichen von einer männlich und weiß dominierten Welt entstammt. All das, was wir eigentlich bewusst abstellen wollen, um auf gerechtere Muster auszuweichen, wird von so einer KI halt lustig mittrainiert und verfestigt sich dann wieder.
Mal sehen, dass ich da mit Fabi und Palle einigermaßen zeitnah nochmal ansetzen kann :)
Das ist der Punkt. Wir wollen eine KI schaffen, die besser sein soll als wir es sind. Nicht unbedingt überlegen, aber doch moralisch gefestigter und möglichst ohne jegliche Vorurteile. Dazu füttern wir sie aber nicht mit unserem besten, sondern mit sehr viel schlechtem Material. Werte und Weltsicht ganzer Kontinente werden unberücksichtigt bleiben, einfach weil sie kaum im Internet vertreten sind. Ich fürchte, damit schaffen wir nichts, das wirklich wertvoll wäre, sondern nur ein Abziehbild westlich männlicher Überheblichkeit und wir werden es nicht mal merken, sondern uns und unsere Lebensweise dadurch nur bestärkt finden. Wie arrogant ist es also, dass wir versuchen, uns in KI selbst zu reproduzieren, anstatt zu versuchen, etwas zu erfinden, das unseren Horizont erweitert und uns neue Sichtweisen ermöglicht?