Metas KI-Forschungschef: LLMs werden niemals so schlau wie Menschen
Vertreter der hoch gehandelten KI-Entwickler verfallen immer wieder gern in Prognosen, wann ihre Systeme es mit der menschlichen Intelligenz aufnehmen können. Für den leitenden KI-Forscher bei Meta ist die Sache längst klar: Das wird nie der Fall sein.
Spürbare Grenzen
Yann LeCun erklärte gegenüber der Wirtschaftszeitung Financial Times, dass selbst die so fortschrittlich wirkenden LLMs letztlich ein sehr begrenztes Verständnis von Logik hätten. "Sie verstehen die physische Welt nicht, haben kein dauerhaftes Gedächtnis, können in keiner vernünftigen Definition des Begriffs denken und können nicht hierarchisch planen", erklärte der KI-Forscher den Stand der Dinge.
Aufgrund dessen solle man sich nicht zu sehr auf diese Technologie verlassen, führte er aus. Diese Modelle könnten schlicht nur dann genau antworten, wenn sie zuvor mit den richtigen Trainingsdaten gefüttert wurden. LLMs wie das marktführende GPT sind eben letztlich nur besonders gute und effektive Statistik-Algorithmen.
Das bedeutet aber nicht, dass es gar keinen Weg gibt, eine KI zu entwickeln, die dem Niveau eines menschlichen Gehirns entspricht. Dafür würden aber eben ganz andere Technologien benötigt, an denen LeCun bei Meta auch arbeitet. Bei den Fundamental AI Research (Fair) bei Meta stehen ihm dafür rund 500 Mitarbeiter zur Verfügung.
Andere Konzepte in Arbeit
Die Grundlage ihres Ansatzes ist die sogenannte "Weltmodellierung". Bei dessen Entwicklung sei man auch durchaus vorangekommen. "Wir sind an einem Punkt, an dem wir glauben, dass wir an der Schwelle zur nächsten Generation von KI-Systemen stehen", sagte LeCun. Das bedeutet aber nicht, dass solche Systeme kurzfristig zur Verfügung stünden, um den aktuellen Wettbewerbern Konkurrenz zu machen. Wenn man mit der Entwicklung nicht irgendwo steckenbleibt, sondern wie geplant vorankommt, könnte man vielleicht in etwa 10 Jahren so weit sein.
Dies klingt letztlich ganz anders als die Prognosen, die OpenAI-Chef Sam Altman zuletzt abgab. Dieser erklärte mehrfach, dass die jüngsten Fortschritte der LLMs quasi schon darauf hinweisen, dass man bald die Artificial General Intelligence (AGI) erreicht - also eine KI, die über größere kognitive Fähigkeiten als Menschen verfügt.
Zusammenfassung
- KI-Systeme werden nie menschliche Intelligenz erreichen, sagt Yann LeCun
- LLMs haben begrenztes Verständnis von Logik und physischer Welt
- LLMs können nicht denken oder hierarchisch planen
- Man sollte sich nicht zu sehr auf diese Technologie verlassen
- LLMs sind letztlich nur effektive Statistik-Algorithmen
- Für menschenähnliche KI sind andere Technologien notwendig
- Meta arbeitet an "Weltmodellierung" für nächste KI-Generation
- Neue KI-Systeme könnten in etwa 10 Jahren verfügbar sein
- Prognosen von OpenAI-Chef Sam Altman sind optimistischer
Da schafft eine Intelligenz, die noch nicht weiß, wie sie selbst funktioniert, auf Grundlage ihrer eigenen Intelligenz eine neue Intelligenz und stellt dann Behauptungen zu deren Leistungsfähigkeit auf, ohne die eigene zu kennen. Kann da etwa etwas sich selbst beweisen? Was sagt denn da Gödel dazu?
Nicht klüger, aber mächtiger.
Die KI wird nie klüger als der Mensch. Dafür steckt zuviel Mensch in der KI.
Ich glaube, wir machen immer wieder den Fehler, uns als die Spitze der Evolution zu betrachten mit nichts außer vielleicht noch Gott über uns. Dabei kann es viele Formen von Intelligenz geben und unsere eigene muss dabei noch nicht mal besonders gut sein. Die Schwarmintelligenz zum Beispiel eines Ameisenstaates mag uns Menschen armselig erscheinen, innerhalb ihres eigenen Lebensraums ist sie der unseren aber ja vielleicht sogar überlegen. Das hängt immer vom Standpunkt ab. Deswegen kann ich mir sehr gut vorstellen, dass wir da etwas schaffen, das uns eines Tages abhängen könnte.
Und es sind ja auch nicht einzelne Menschen, egal wie intelligent sie nun sind, die die Menscheit dorthin gebracht haben, wo sie heute steht, sondern die Zivilisationen, mit ihren Spezialisierungen und Arbeitsteilungen.. Solche Zivilisationen, z.B. einzelne Staaten, dafür gibt es in der Geschichte etliche Beispiele, nehmen mitunter eine unheilvolle Eigendynamik an, die auch nicht weniger bedrohlich sein muss, als eine KI, die vielleicht irgendwann einmal intelligenter ist als jedes Individuum, aber der trotzdem die Möglichkeiten der Zivilisationen, die sie hervorgebracht haben, verschlossen bleiben. Eine KI, egal wie schlau sie ist, kann vielleicht mehr Fragen beantworten, als jeder einzelne Mensch, aber das ermöglicht ihr noch lange nicht, Waffen herzustellen oder vorhandene zu übernehmen, mit denen sie sich gegen Menschen richten könnte.
Eine Art Ethik für KIs wird schon mit vollautonomen Fahrzeugen notwendig, wenn eine KI z.B. in die Dilemmasituation kommt, entscheiden zu müssen, ob sie z.B. das Leben des Fahrers oder das einer Gruppe von die Straße kreuzenden Kindern opfert, wenn die Situation nur diese Alternativen lässt. Man sollte sich also überlegen, wie man KIs davon abhalten kann, eigenständige Entscheidungen zum Schaden von Menschen zu fällen, wenn sie die Möglichkeit dazu haben, und nicht genau dafür konstruiert wurden (wie z.B. militärische Drohnen usw.).
Auch sollte immer eine Möglichkeit bleiben, notfalls "den Stecker zu ziehen".
Dann müssen auch KIs, die in ihren Möglichkeiten jedem einzelnen Menschen weit überlegen sind, keine Bedrohung sein.
Vielmehr sollte man auch das halbvolle Glas sehen.
An etlichen medizinischen Problemstellungen, die für millionenfaches Leid verantwortlich sind, beissen sich Forscher weltweit seit mehr als 100 Jahren die Zähne aus, mit zwar beachtlichen Fortschritten, aber ohne den entscheidenden Durchbruch. Auch die Suche nach der "Weltformel" gestaltet sich als zähes Unterfangen.
Vielleicht kann eine hochintelligente KI ja einmal Bewegung in solche Fragestellungen bringen.