Es geht 2022 in die nächste Runde, das irrsinnige Megapixel-Rennen. Nachdem Ende 2019 das erste 108-Megapixel-Smartphone auf den Markt kam, fällt diesen Monat mit dem Motorola Edge 30 Ultra (Test) und Xiaomi 12T Pro (Hands-on) die 200-Megapixel-Marke. Und sogar das eben erwähnte iPhone 14 Pro ist dieses Jahr auf Apple-untypische 48 Megapixel gesprungen. Doch die spannende Eigenschaft extrem hochauflösenden Sensoren sind gar nicht die bis zu 100 Megabyte großen Fotos für Abzüge im Hauswandformat, sondern deren Zoom.
Wie funktioniert der 2x-Zoom im iPhone 14 Pro?
Im Gegensatz zu ausgewachsenen Digitalkameras haben die allermeisten Smartphones aus Platzgründen keine Zoomobjektive, die durch ein Verschieben der Linsen die Brennweite verändern können. Stattdessen gibt es für verschiedene Zoomstufen eigene Sensoren. Beim iPhone 14 Pro sind das ein Sensor für den Ultraweitwinkel (0,5x), einer für den Weitwinkel (1x) und einer für die Telekamera (3x).
Beim Zoomen per Zwei-Finger-Geste in der Kamera-App zoomt das Smartphone nun jeweils digital ins Bild einer Kamera hinein, bis die Vergrößerung des nächsten Kameramoduls erreicht ist – und schaltet dann um. Bei zunehmender digitaler Vergrößerung nimmt die Qualität natürlich ab. Der Grad der Abnahme hängt von der jeweiligen Kamera ab.
Im iPhone 14 Pro steckt als Hauptkamera ein 1/1,28-Zoll-Bildsensor, der 9,8 mal 7,3 Millimeter groß ist. Die Auflösung beträgt 48 Megapixel. Beim 2x-Zoom schneidet Apple einfach aus dem Sensor mittig einen 12-Megapixel-Ausschnitt heraus, der auf dem Sensor dann immer noch 4,9 mal 3,7 Millimeter misst – und damit etwa dem 1/3-Zoll-Format entspricht. Rechnerisch sind das immer noch Voraussetzungen für ordentliche Fotos bei guten Lichtverhältnissen.
Beim 3x-Zoom schaltet Apple dann auf den nächsten 12-Megapixel-Sensor um (der eigentlich mit einer Äquivalentbrennweite von 77 Millimetern eher bei 3,2x liegt). Mit dem 1/3,5-Zoll-Format beziehungsweise 4,0 mal 3,0 Millimetern ist der Sensor wieder ein Stückchen kleiner als der mittig aus der Hauptkamera ausgeschnittene "2x-Sensor".
In der nachfolgenden Grafik seht Ihr, wie viel Sensorfläche der Kamera im iPhone 14 Pro und iPhone 13 Pro bei den unterschiedlichen Brennweiten zur Verfügung steht. Ganz links am Rand geht's im Ultraweitwinkel los (13 Millimeter). Bei der Hauptkamera (24 Millimeter) gibt's dann einen deutlichen Sprung nach oben. Bis zur Telekamera hin (77 Millimeter) hat das iPhone 14 Pro immer mehr Sensorfläche zur Verfügung als das iPhone 13 Pro. Die Telekamera schließlich ist identisch.
Interessant ist auch die obige Grafik, nur mit Megapixeln anstelle von Sensorfläche in der vertikalen Achse. Während der Verlauf im Ultraweitwinkel- und Telebereich mit jeweils 12 Megapixeln identisch ist, macht sich der Sprung auf 48 Megapixel deutlich bemerkbar. Das iPhone 14 Pro hat beim digitalen Zoom zwischen 1x und 3,2x deutlich mehr Auflösungsreserven.
Wie groß und hochauflösend muss es sein?
Das bislang diskutierte iPhone 14 Pro ist nicht einmal das Smartphone mit der höchsten Auflösung oder dem größten Sensor. Diese Woche hat Xiaomi das 12T Pro gelauncht, das einen 200-Megapixel-Sensor bietet – und dafür komplett auf eine Telekamera verzichtet. Aber wie viel mehr Spielraum für's digitale Zoomen bieten so viele Megapixel? Sehen wir's uns an im Vergleich mit dem iPhone 14 Pro:
Der neben der Auflösung noch wichtigere Faktor ist allerdings die Sensorfläche, die der Kamera bei den unterschiedlichen Brennweiten zur Verfügung steht. Der im Xiaomi 12T Pro verbaute Isocell HP1 ist mit 1/1,22 Zoll zwar deutlich größer als die Hauptkamera im iPhone 14 Pro, verliert beim Umschalten des Apple-Smartphones im Telezoom dann aber doch hinsichtlich der verfügbaren Sensorfläche:
Und was ist mit dem Quad-Bayer?
Einen Faktor haben wir außer Acht gelassen: die Farbmasken über dem Sensor. Um Quad-Bayer & Co. zu erklären, müssen wir uns zunächst ansehen, wie Bildsensoren funktionieren. Ein Bildsensor besteht aus lauter kleinen Lichtsensoren, die nur die Menge des einfallenden Lichts messen – ohne Farben zu unterscheiden. 12 Megapixel bedeutet 12 Millionen solcher Lichtsensoren.
Um aus diesem Schwarzweiß-Sensor nun einen Farbsensor zu machen, liegt über dem Sensor eine Farbmaske, die das einfallende Licht nach Grün, Rot beziehungsweise Blau filtert. Die bei den meisten Bildsensoren verwendete Bayer-Maske unterteilt zwei mal zwei Pixel immer in zwei grüne sowie einen roten und einen blauen Pixel. Ein Sensor mit 12 Megapixeln Auflösung hat also sechs Millionen grüne sowie jeweils drei Millionen blaue und rote Pixel.
Beim sogenannten Demosaicing oder auch De-Bayering schließen die Bildverarbeitungsalgorithmen nun anhand der Helligkeitswerte der umliegenden andersfarbigen Pixel auf den RGB-Wert eines jeden Pixels zurück. Ein ganz heller grüner Pixel, der von "dunklen" blauen und roten Pixeln umgeben ist, wird also komplett grün. Und ein grüner Pixel neben komplett ausbelichteten blauen und roten Pixeln wird weiß. Und so weiter, bis wir ein Bild mit 12 Millionen RGB-Pixeln haben.
Bei höher auflösenden Sensoren sieht die Farbmaske allerdings anders aus. Beim sogenannten Quad-Bayer-Sensor – typisch im Bereich um die 50 Megapixel – sitzen unter jedem roten, grünen beziehungsweise blauen Bildpunkt jeweils vier Helligkeitspixel. Die 108-Megapixel-Sensoren gruppieren gar neun (3x3) Pixel unter einer Farbfläche, bei den 200-Megapixel-Chips sind es 16 (4x4) Pixel. Bei Sony heißt das dann Quad-Bayer, bei Samsung Tetra-, Nona- oder Tetra2pixel.
Während die Bildsensoren bezüglich der Helligkeit also tatsächlich eine Auflösung von bis zu 200 Megapixeln haben, bleibt die Farbmaske bei 12 Megapixeln stehen. Das ist auch kein Problem, da in der Wahrnehmung die Helligkeitsauflösung wichtiger ist als die Farbauflösung. Dennoch: Bei extrem hohen digitalen Zooms lässt die Farbauflösung irgendwann derart nach, dass es zu Bildfehlern kommt.
Als Beispiel haben wir hier ein Foto von einem kleinen Androiden bearbeitet. Links (1) seht Ihr ein Graustufen-Bild, rechts (3) ein RGB-Bild mit geviertelter Auflösung. Das mittige Bild haben wir aus beiden linken und rechten Bildern zusammengesetzt – und auf den ersten Blick sieht das Ergebnis sehr gut aus. Beim genaueren Hinsehen ist jedoch der Übergang zwischen Grün und Blau am Scheitel des Androiden unsauber. Und genau an solchen Übergängen treten Artefakte auf, wenn man zu weit in einen Sensor hineinzoomt, bei dem die Farbmaske niedriger auflöst als der Sensor selbst. Samsung hatte übrigens vermutlich genau deswegen auch bei seinem vielgescholtenen 1,1x-Telesensor im S20(+) und S21(+) einen 64-Megapixel-Sensor mit für diese Auflösung untypischer RGB-Matrix eingesetzt.
Unterm Strich ist rein vom Datenblatt schwer auszumachen, wie sich die Bildqualität bei Kameras verhält, zumal eine ganz entscheidende Rolle am Ende auch an die Algorithmen der Hersteller geht. Und auch das sogenannte Re-Mosaicing ist eine große Herausforderung. Denn bei Sensoren mit 2x2-, 3x3- oder 4x4-Bayermasken müssen – anders als beim normalen De-Mosaicing – die Farbwerte über immer größere Sensorbereiche und mit immer größerer Komplexität interpoliert werden.
Auf der anderen Seite bringen aber auch die immer größeren Sensoren Probleme mit sich. Um die Objektive kompakt zu halten, müssen die Hersteller Linsen verbauen, die das Licht immer extremer brechen und damit gerade am Bildrand Probleme mit chromatischen Aberrationen und anderen Artefakten bekommen. Und auch die geringe Schärfentiefe stellt im Nahbereich ein Problem dar.
Es bleibt also spannend, und ich hoffe, Ihr fandet diese Reise in die Welt der extrem großen und extrem hochauflösenden Bildsensoren interessant. Wie sieht Eure Wunschkamera in einem Smartphone aus? Ich freue mich auf Eure Kommentare!
Kommentare
Kommentare
Beim Laden der Kommentare ist ein Fehler aufgetreten.