Dank des M2 Ultra: Diese KI-Funktionen sind für das iPhone 16 möglich
Es wird gemunkelt, dass iOS 18 eine ganze Reihe neuer generativer KI-Funktionen auf iPhones und iPads bringen wird. Ursprünglich war man davon ausgegangen, dass diese Funktionen lokal auf dem Gerät verarbeitet werden, aber jetzt zeichnet sich ab, dass Apple tatsächlich Cloud-Server nutzen könnte, um einen Großteil der Funktionen zu betreiben. Und das Unternehmen könnte dafür sogar seinen guten, alten Chipsatz nutzen.
- Lest auch: Die besten Tipps und Tricks für iOS
Unter Berufung auf eine interne Quelle berichtet Mark Gurman in seinem aktuellen "Power-On"-Newsletter, dass Apple neue KI-Server baut, um die generativen KI-Funktionen auf den iPhones und iPads zu betreiben. Gurman fügt hinzu, dass die Server den von Apple entwickelten M2-Ultra-Chipsatz verwenden werden, der letztes Jahr in den Mac Desktops debütierte, anstatt Chipsätze anderer Hersteller zu verwenden.
Laut der Quelle des Journalisten ist dies Teil von Apples neuem Projekt namens ACDC (Apple Chips in Data Centers). Es wurde hervorgehoben, dass die Entscheidung für den M2-Ultra-Chip im Vergleich zu Hardware von Drittanbietern den Vorteil von mehr Sicherheit und Datenschutz bietet. Dabei wurde jedoch nicht ausgeschlossen, dass Cupertino in Zukunft Cloud-Server von Drittanbietern für weniger wichtige Aufgaben einsetzen wird, wenn es expandiert. Außerdem wurde bekannt, dass das Unternehmen in Zukunft KI-Server mit seinen leistungsfähigeren M4-Chips aufstellen wird.
- So gut sind die M4-Chips: die neuen iPads mit M4-Chip im Vergleich
Gurman sagt, dass nur die "fortschrittlichsten" KI-Aufgaben in der Cloud erledigt werden, was Funktionen wie Bild- und komplexe Texterzeugung umfassen könnte. Währenddessen werden die grundlegenden Aufgaben wie Live-Übersetzung auf dem iPhone bearbeitet, indem der angebliche Apple-Mobilchipsatz verwendet wird, mit dem diese Geräte laufen werden.
Es sieht so aus, als würde Apple dem Ansatz von Samsung und Google folgen und die nächste Stufe der KI in Smartphones einbauen. Die Video-Boost-Funktion des Google Pixel 8 Pro (Testbericht) nutzt beispielsweise die Cloud-Server von Google, um die Qualität von Videos zu verbessern, da diese sehr anspruchsvoll sind. Aber im Gegensatz zur Samsung Galaxy-S24-Reihe sollen nur einige der Galaxy-KI-Funktionen, die eine Internetverbindung benötigen, die Cloud nutzen.
Es ist auch unklar, wie Siri mit all diesen neuen KI-Funktionen genutzt werden wird. Frühere Berichte deuteten jedoch darauf hin, dass Apple den Assistenten durch die Einbindung seines Ajax LLM (Large Language Model) verbessern wird. Es ist also möglich, dass Siri viele dieser Aufforderungen und Aufgaben übernehmen wird, die vom Benutzer eingegeben werden.
iOS 18 wird auf der Entwicklerkonferenz WWDC im Juni vorgestellt, während es erst im Herbst zusammen mit dem iPhone 16 und dem iPhone 16 Pro auf den Markt kommen wird.
Was glaubt Ihr, wie diese KI-Server die neuen KI-Funktionen auf dem iPhone unterstützen werden, abgesehen von der Ausführung intensiver Prozesse? Lasst uns Eure Meinung hören.
Quelle: Bloomberg