Blamage für X: Überforderte Grok-KI verbreitet skurrile Falschmeldung
Die KI Grok schreibt auf X Zusammenfassungen zu Trendthemen. In einem konkreten Fall scheiterte sie jetzt aber spektakulär und machte aus einem Basketballspieler einen randalierenden Kriminellen. Bei aller Komik gibt der Fall auch zu denken.
Grok fasst Trends auf X zusammen
Die Social-Media-Plattform X hat mit Grok ihre eigene KI, die von xAI entwickelt wurde, einem weiteren Unternehmen von Elon Musk. Der Bot bietet seit einiger Zeit auch Zusammenfassungen auf X, von Themen, die gerade im Trend liegen. Dabei offenbart das Programm jetzt mit einer bizarren Meldung, wie kompliziert es ist, gute KI zu programmieren, wie gefährlich der Einsatz und der blinde Verlass auf solche Anwendungen sein kann und, wie sehr die Standards bei X seit der Übernahme durch Musk gesunken sind.
KI macht Basketballspieler in Meldung zu Kriminellem
Die besagte Zusammenfassung basiert eigentlich auf Posts von X-Nutzern, die über ein Basketballspiel der US-amerikanischen Profiliga NBA getwittert hatten. Klay Thompson, ein Spieler der Golden State Warriors, hatte einen besonders schlechten Abend beim Spiel gegen Sacramento und traf bei keinem seiner zehn Wurfversuche den Korb.
Daher hatten viele Nutzer Mitteilungen mit einer Variation des Ausdrucks "throwing bricks" getwittert. Diese gängige Redewendung hat aber nichts mit Backsteinen zu tun, sondern beschreibt im Basketball-Kontext einfach eine miserable Trefferquote. Allem Anschein nach weiß Grok das aber nicht.
Denn der KI-Bot nahm diese Tweets zum Anlass, um seine ganz eigene Nachrichtenmeldung zu verfassen. Laut dieser randalierte Klay Thompson nämlich in Sacramentos Innenstadt, wo er Fenster von Häusern mit Ziegelsteinen einwarf, wie im folgenden zu lesen ist:
xAI und X in der Verantwortung
Schon seit jeher stellen Redewendungen und Idiome den heiligen Gral von Übersetzungsprogrammen dar. Selbst die besten Anwendungen wie DeepL haben Probleme damit. Dennoch steht xAI als Entwickler der Software in der Verantwortung.
Bedenklich ist außerdem, dass die KI auf Grundlage von lediglich zwei Wörtern eine komplette Nachrichtenmeldung verfasste und offensichtlich jede Menge frei erfundene Informationen hinzudichtete. Vor allem wird durch den Vorfall aber deutlich, wie wenig Moderation auf X seit der Übernahme durch Musk stattfindet. Eine solche Meldung hätte es nie auf die Plattform schaffen dürfen.
Hier ist gut zu erkennen, dass von KI verfasste Texte sehr problematisch sein können, wenn blind auf ihre Richtigkeit vertraut wird. Denn sie enthalten durchaus Fehler. Trotz des momentanen KI-Booms sollten sich Nutzer dessen bewusst sein. Wohl vor allem auf X, wie es scheint.
Zusammenfassung
- Social-Media-Plattform X setzt auf KI Grok von xAI
- Grok erstellt Zusammenfassungen trendiger Themen
- KI-Bot verwechselt Redewendung mit realer Gewalt
- Schlechte Basketball-Wurfquote fälschlich als Randale interpretiert
- Redewendungen stellen Herausforderung für KI dar
- xAI trägt Verantwortung für fehlerhafte KI-Inhalte
- Mangelnde Moderation auf X seit Musks Übernahme evident
Empfohlener redaktioneller Inhalt
Mit Deiner Zustimmung wird hier ein externer Inhalt geladen.
Mit Klick auf den oben stehenden Button erklärst Du Dich damit einverstanden, dass Dir externe Inhalte angezeigt werden dürfen. Dabei können personenbezogene Daten an Drittanbieter übermittelt werden. Mehr Infos dazu findest Du in unserer Datenschutzerklärung.