Apples skalierbare Strategie der Prozessoren
Viel hat uns Apple nicht zu dem neuen S9-ARM-Chip der Apple Watch Series 9 und Apple Watch Ultra 2 bekannt gegeben. Der Prozessor hat 60 Prozent mehr Transistoren als sein Vorgänger, was, wenn ich mich nicht verzählt habe, 5,6 Milliarden Halbleiter-Bauelemente sein müssten. Der Neural-Prozessor ist doppelt so schnell und die Leistung des Grafikprozessors konnte um 30 Prozent zum Chip aus der Apple Watch 8 (Test) gesteigert werden. Dadurch wurden auch Tricks möglich, wie die Siri-Sprachsteuerung ohne eine aktive Internetverbindung.
- Apple Watch: So nutzt Ihr das wichtigste Feature von watchOS 10
Wie nun ein Bericht der EETimes offenbart, basiert der besagte Apple-S9-Chip auf dem im 4-nm-Prozess gefertigten "Apple A16 Bionic"-Chip. Dem Prozessor, der bereits im Apple iPhone 14 Pro (Test) und Pro Max, als auch im diesjährigen Apple iPhone 15 und iPhone 15 Plus (Test) zum Einsatz kommt. Allerdings nicht ohne dem SoC ein paar Zähne Kerne zu ziehen. So wurden jeweils zwei Performance- und zwei Effizienz-Kerne abgeschaltet. Auch beim Grafikchip wurden vier der ursprünglichen fünf Rechenkerne kastriert. Und auch die Neural-Engine musste dran glauben, sodass für die smarte Apple-Uhr am Ende 4 der 16 Kerne übrigblieben.
Was will uns nun dieser Bericht sagen? Das Apple-Chip-Design ist von Hause aus stark skalierbar. Bereits der Apple M2, M2 Pro und der Apple M2 Max Prozessor basieren alle auf dem "Apple A15 Bionic"-Chipsatz. Gleiches gilt by the way für den Apple M3, M3 Pro und M3 Max, welche allesamt aus der Basis des Apple A17 Pro entstammen. Somit kann Cupertino sehr effektiv Kosten für die Entwicklung und natürlich auch für die Produktion sparen. Logisch, will man das nicht an die große Glocke hängen.
Was sagt Ihr zu den massiven Preiseinsparungen, die Apple an seinen Chipsätzen vornimmt? Habt Ihr damit gerechnet und wundert Ihr Euch nun noch ein wenig mehr über die Apple-Preise? Oder wundert Euch bei Apple überhaupt nichts mehr? Schreibt uns Eure Meinung gern unten in die Kommentare und lasst uns diskutieren.
Quelle: EETimes
Kommentare
Kommentare
Beim Laden der Kommentare ist ein Fehler aufgetreten.