Jenseits des Hypes: Macht KI die Smartphones tatsächlich besser?
In anderen Sprachen lesen:
Während wir uns dem Jahr 2025 näherten, dachte ich viel darüber nach, wie KI zu einer allgegenwärtigen Kraft in unseren Computern im Taschenformat – auch Smartphones genannt – wurde. Erinnert Ihr Euch noch an die wilden Spekulationen, als "KI" wie ein fernes Konzept in einem Science-Fiction-Film wirkte? Heute sind wir mittendrin, und ein KI-Assistent oder eine KI-Kamerafunktion werden praktisch schon vorausgesetzt. Aber bringen diese neuen und aufstrebenden Technologien den Menschen im Alltag wirklich etwas? Oder werden wir nur unter einer weiteren Welle von Gimmicks und Zusatzfunktionen begraben?
- Lest unbedingt auch: Samsung Galaxy AI im ausführlichen Test
Kürzlich warf ich einen Blick hinter die Kulissen und erfuhr, wie Google seine Gemini-KI-Modelle in geräteinterne und cloudbasierte Lösungen aufteilt. Das Prinzip ist ganz einfach: Einige KI-Funktionen können komplett auf Eurem Handy installiert werden, während andere dafür zu groß und zu stromhungrig sind und daher in der Cloud bleiben. Die "Flash"- oder "Nano"-Versionen von Google sind auf Datenschutz, Geschwindigkeit und Offline-Komfort ausgerichtet. Die leistungsstärkere "Pro"-Variante hingegen zapft Serverfarmen an, um die Rechenleistung zu erhöhen.
Das klingt logisch, und die Vorteile sind nicht von der Hand zu weisen: Wenn mein Handy Übersetzungen oder sogar Chat-ähnliche Aufgaben selbstständig erledigen kann, ist das ein großer Gewinn für die Privatsphäre und die Reaktionsfähigkeit in Echtzeit. Aber es klafft immer noch eine Lücke zwischen den Aufgaben, die unsere Handys derzeit bewältigen können, und den anspruchsvolleren Funktionen wie Videobearbeitung in Echtzeit oder ultrakomplexe Interaktionen, die mehr Leistung erfordern als das, was ein Smartphone bietet (zumindest im Moment).
Hardware-Gewinne und das Rennen um die KI auf dem Gerät
Ein großer Teil dieses Fortschritts ist auf die Hardwareverbesserungen im Jahr 2024 zurückzuführen. Letztes Jahr ging es vor allem darum, die neuronalen Verarbeitungseinheiten zu verbessern, die Akkuleistung zu steigern und spezielle Komponenten zu entwickeln, die Dinge wie Spracherkennung und Bildanalyse direkt lokal erledigen. Diese Verbesserungen unter der Haube haben unsere Handys auf jeden Fall schneller und fähiger für KI-gesteuerte Leistungen gemacht. Das gilt z. B. für die sofortige Fotobearbeitung, die verzögerungsfreie Sprachtranskription oder die Grammatikprüfung, ohne die Cloud anzufordern.
Gleichzeitig erleben wir, dass KI auf viel kreativere Weise zum Einsatz kommt. Generative Medienwerkzeuge gibt es in Hülle und Fülle – Apps, die Eure Kritzeleien in ein fotorealistisches Gemälde oder Euer Summen in einen orchestrierten Track verwandeln, und das alles in einem Wimpernschlag. Die große Frage ist jedoch, ob wir uns auf eine Zukunft zubewegen, in der solche atemberaubenden Funktionen für immer an einen riesigen Server in der Cloud gebunden sind, oder ob die Hardware auf den Geräten irgendwann so weit aufgeholt hat, dass diese Erlebnisse vollständig offline möglich sind.
Die gleiche Kluft trat auf, als Google etwas namens Gemini Live vorstellte. Dabei handelt es sich im Wesentlichen um eine Funktion, die Geschwindigkeit in Echtzeit und eine umfangreiche Datenanalyse erfordert – sie muss also über eine robustere cloudbasierte Version von Gemini laufen. Die nackte Wahrheit ist, dass die heutigen Smartphone-Prozessoren nicht in der Lage sind, eine so komplexe KI lokal zu verarbeiten. Sicherlich könnte sich das eines Tages ändern, aber niemand scheint genau zu wissen, wann.
Ich würde lügen, wenn ich sagen würde, dass ich nicht begeistert bin von der Aussicht, dass Handys immer intelligenter werden, und zwar in einer Art und Weise, die wirklich wichtig ist – weniger Wartezeiten für Uploads, bessere Personalisierung, mehr Datenschutz und natürlich mehr atemberaubende generative Kunst oder Musik. Aber es gibt auch Grund zur Besorgnis.
Je mehr wir der KI überlassen, desto mehr riskieren wir, dass die Kernfunktionen des Smartphones in den Schatten gestellt werden – wie z. B. das Telefonieren – oder dass die Gerätekosten in die Höhe getrieben werden. Seien wir ehrlich: Die meisten dieser auffälligen KI-Funktionen haben es nie auf wirklich preisgünstige Smartphones geschafft – zumindest nicht in einer Weise, die wir als Gamechanger bezeichnen könnten. Und ja, es ist schon ein schwieriger Spagat zwischen dem Datenschutz und dem Komfort, den cloudbasierte KI bietet.
- Auch interessant: Wie mit Künstlicher Intelligenz eine Zwei-Klassen-Gesellschaft entsteht
Jenseits des Silikons: Die ökologischen und praktischen Herausforderungen der KI
Neben den Hardware-Hürden gibt es auch ein drohendes Umweltproblem. Denkt an die riesigen Rechenzentren, in denen Armeen von Servern brummen und rund um die Uhr Kühlflüssigkeit ausstoßen. Riesige KI-Modelle auf Hochtouren laufen zu lassen, ist alles andere als umweltfreundlich. Braucht Ihr ein Beispiel aus der Praxis? OpenAI brachte gerade o3 auf den Markt – die bisher leistungsstärkste KI – aber selbst ein einziger Prompt kann schon eine Menge CO₂ verursachen.
Laut Boris Gamazaychikov, der AI Sustainability Lead von Salesforce (unter Berufung auf Kostendaten des ARC-AGI-Benchmarks), verschlingt eine rechenintensive o3-Aufgabe etwa so viel Strom wie ein typischer US-Haushalt in zwei Monaten verbraucht. Das entspricht ungefähr fünf vollen Benzintanks. Lasst das mal einen Moment auf Euch wirken.
Natürlich erwartet niemand, dass über Nacht ein riesiges KI-Modell auf Eurem Smartphone auftaucht – und ehrlich gesagt, wird das vielleicht auch nie passieren. Ein langwieriger Prozess des Testens und Optimierens liegt vor uns, bevor diese riesigen Modelle die Verbraucher:innen erreichen können. Man denke nur an die begrenzten Kapazitäten von CPU, Akku und Speicher eines Smartphones.
Die Verlagerung der KI-Verarbeitung auf lokale Hardware könnte die Umweltbelastung verringern. Um wirklich fortschrittliche Funktionen freizuschalten, wäre jedoch ein Quantensprung in der Hardwaretechnologie erforderlich – etwas, das im Moment eher Science-Fiction als Realität ist.
Bis es so weit ist, werden hybride KI-Verbindungen die Lösung für das Jahr 2025 sein: Sie teilen die Aufgaben zwischen dem Gerät und der Cloud auf, damit Euer Handy nicht unter der Belastung zusammenbricht. Ein Beispiel dafür ist meine kürzliche Reise nach Miami: Apples On-Device-Intelligence-Funktion auf dem iPhone 16 versagte, als ich versuchte, das Vitas-Healthcare-Gebäude zu identifizieren, ein Symbol des urbanen Kunstaktivismus, das inmitten der Wolkenkratzer von Miami thront. Also wechselte ich zum In-App-Chat von ChatGPT 4o.
Das Gespräch verlief reibungslos: Ich bekam historische Zusammenhänge, durchdachte Fragen und Einblicke in die Gemeinschaft, während mein Handy in meiner Tasche blieb und die Spracheingabe und -ausgabe über meine AirPods erfolgte. Sicher, es war ein Akkufresser – eine Mischung aus lokaler und cloudbasierter KI im Hintergrund – aber es hat funktioniert.
Diese Art von flüssiger Echtzeit-KI-Erfahrung auf Smartphones war Anfang 2024 noch nicht existent. Jetzt wird sie über ChatGPT und Gemini Live für eine beträchtliche Anzahl von Nutzer:innen eingeführt. Die meisten modernen Modelle sind jedoch cloudbasiert und vermeiden es bewusst, Eure persönlichen Daten zu durchsuchen. Das bedeutet, dass ihr mit Gemini Live noch nicht Euren Tagesablauf planen oder Euren Posteingang durchforsten werdet.
Apple Intelligence verarbeitet einige persönliche Daten lokal – allerdings nur in ausgewählten Regionen (hier in Deutschland, wo ich lebe, wird sie erst im nächsten April verfügbar sein). Im Moment sind dynamische Unterhaltungen über urbane Kunst zwar möglich, aber vollwertige persönliche KI-Assistenten sind noch nicht in Sicht.
Machen aufkommende KI-Trends die Handys tatsächlich besser?
Letztendlich neige ich zu einer gesunden Portion Optimismus, gemischt mit Realismus. KI kann unsere Handys – und unser Leben – wirklich besser machen, aber das bedeutet nicht, dass wir jeder neuen Funktion hinterherlaufen sollten wie Motten dem Licht. Was mich begeistert, ist der Trend zu nahtlosen, personalisierten Erlebnissen, die mich nicht zwingen, zwischen mehreren Apps oder Diensten zu wechseln. Es ist die stille Integration von KI, die sich sinnvoll anfühlt und nicht wie ein weiterer fancy Marketing-Trick.
Macht KI Smartphones also tatsächlich intelligenter oder macht sie unser Leben nur komplizierter? Im Moment ist es noch ein bisschen von beidem. Aber wenn wir in einem Jahr zurückblicken, wird der wirkliche Prüfstein sein, ob sich diese KI-Funktionen in unsere tägliche Routine integriert haben und unsere Handys intuitiver und unsere Interaktionen menschlicher gemacht haben als je zuvor. Wenn das der Fall ist, macht es mir vielleicht nichts mehr aus, mich mit ein paar überbewerteten Buzzwords zu beschäftigen. Schließlich ist nicht jede Innovation ein bedeutungsloses Strohfeuer. Manchmal ist sie nur ein Schritt in Richtung einer Zukunft, in der sich unsere Geräte wirklich wie eine Erweiterung von uns selbst anfühlen – ohne riesige Cloud-Server.
Vor gut 20 Jahren habe ich meine alten Sony Video-8 Filme aus den 80ern sowie die 8mm meines Vaters aus den 60er bzw. 70er Jahren digitalisiert. Letztere durch eine spezialisierte Firma, was mich knapp 1000€ gekostet hatte🤔.
Die Ergebnisse sind ganz OK, aber auch nicht mehr als das.
Stand der Dinge damals war halt nur Mpeg-2, SD 720x576, Interlace.
Jetzt warte ich voll Spannung auf den Tag, wo ich mit irgendeiner generativen KI, diese +- 200 Dateien einfach und unkompliziert aufpeppen kann. Etwas mehr Schärfe (720p reicht), etwas mehr Farbe, von Interlace auf Progressive, all das ohne zusätzliche Artefakte, gespeichert in MKV Containern.
Software Pakete hierfür gibt es zwar schon, sind aber sehr teuer und arbeitsintensiv.
Vielleicht bei Gemini Pro in 2025 ?
Es ist teilweise beeindruckend, wie Galaxy Enhance X ältere Fotos sichtlicht verbessern kann.
Ich persönlich finde die offline Verarbeitung noch immer am besten. Das Phone muss in meinen Augen möglichst viel selber können.