Google Pixel: Die "Software-defined Camera"
Im Highend-Segment spielt die Kamera mittlerweile das Zünglein an der Waage. Google hat in den vergangenen Jahren große Fortschritte erzielt und im Pixel und Pixel 2 enorm gute Ergebnisse geliefert. Wir hatten die Gelegenheit, mit Isaac Reynolds zu sprechen. Er ist Produktmanager für die Kamera im Pixel 2 und hat uns einige Einblicke in die Philosophie der Kamera gegeben.
Rund um die Kamera von Smartphones gibt es eine Menge Diskussionsfäden. Da geht es nicht nur um die Qualität der Bilder, sondern vor allem auch um den Weg dahin. Beispiel: Manuelle Einstellungen oder lieber der schnelle Automatik-Modus? Das führt unweigerlich zur Frage, wie sich denn das Verhältnis zwischen Smartphone-Kamera und teurer Spiegelreflex gestalte. Wie steht Google dazu?
Isaac Reynolds hat eine klare Sicht auf diese Diskussion: Typischerweise werde die Kamera vorrangig unter Hardware-Gesichtspunkten gesehen. “Google ist aber historisch eher eine Software-Firma”, sagte er uns im Gespräch. Beim Google Pixel komme dies unter anderem bei der Kamera zum Vorschein. Natürlich sei die Hardware nicht unerheblich. Google setzt aber vor allem auf die Software. Und hier meint Reynolds insbesondere die Technologie HDR+, an der Google seit mittlerweile sechs Jahren feilt. In gewisser Weise sei die Pixel-Kamera eine “software-defined camera”, also im Wesentlichen Software-geprägt.
HDR+ macht den Unterschied
HDR+ funktioniert nicht wie ein klassischer HDR-Modus, der mehrere Bilder mit unterschiedlichen Belichtungseinstellungen in eines rechnet. HDR+ verwendet bis zu zehn unterbelichtete Bilder, die aber mit der gleichen Belichtungseinstellung geschossen sind. Der HDR+-Algorithmus setzt diese Bilder in eines zusammen. Mit dieser Methode kann die Pixel-Kamera lange Belichtungszeiten erreichen, ohne dabei tatsächlich ein Bild mit langer Belichtungszeit zu verwenden. Hierbei kommen verschiedene Techniken zum Tragen, die dafür sorgen, dass die Bilder scharf bleiben.
Ein manueller Modus ist daher beim Pixel schwer zu implementieren, weil dieser die HDR+-Funktionalität aushebeln würde: HDR+ verarbeitet bis zu zehn Bilder, die Google durchaus als RAW-Datei zur Verfügung stellen könnte. Nur gäbe es keine Software, die diese zu einem Bild verarbeiten könnte. Google hat sich daher gegen RAW-Funktionalitäten in der Google-Kamera entschieden.
Auch beim Zoomen kommt Software zum Einsatz, die für bessere Ergebnisse sorgen soll. Unter anderem RaisR. Dieser Algorithmus hilft in Situationen mit starkem Kontrast, die Detailzeichnung zu verbessern - besonders gut klappt das zum Beispiel bei Buchstaben.
Viel Liebe hat Google außerdem in den Porträtmodus gesteckt. Der simuliert zwar den optischen Bokeheffekt einer Kamera, geht aber eigene Wege. Zum Beispiel stellt er Personen stets scharf, auch wenn sie nicht in einer Schärfeebene stehen. Dabei kombiniert Google zwei Technologien. Zum einen die Tiefenschätzung anhand von zwei Bildern aus unterschiedlichen Blickwinkeln. Dies gelinge dank des Dual-Pixel-Sensors, dessen minimale Verschiebung dafür bereits ausreicht. Außerdem kommt Machine Learning zum Einsatz, um die Umrisse von Personen besser zu treffen.
Google: Point and shoot ist das Ziel
Überhaupt ist das Konzept der Google-Kamera vor allem, eine einfache Fotolösung zu liefern. Aufwändigen Modi mit Objekterkennung erteilt Reynolds daher vorerst eine Absage.
Moderne Medienformate wie AV1 hat das Team für die Google-Kamera durchaus auf dem Schirm. Allerdings müsse die Unterstützung weiter gediehen sein. Um den Speicherplatz müsse sich ein Pixel-User ohnehin keine Gedanken machen, denn die Bilder würden ja via Cloud (Google Fotos) synchronisiert. Das bedeutet aber auch: Für Google gehören Google Fotos und die Google-Kamera zusammen.
Pixel Visual Core: Google verwendet den Chip nicht
Klärung brachte Reynolds auch in ein Thema, das zuvor seitens Google widersprüchlich kommuniziert wurde. Denn im Pixel 2 steckt der Pixel Visual Core, eigentlich ein Prozessor, der Machine-Learning-Anwendungen beschleunigen kann. Zunächst lag dieser brach und tatsächlich verwendet die Google-Kamera diesen bis heute nicht
Zum Einsatz kommt der Visual Core aktuell tatsächlich nur für Drittanbieter-Software, für die der Pixel Visual Core HDR+-Funktionen bereitstellt. Dafür gebe es Gründe, so Reynolds. Google habe App-Entwicklern einen einfachen Zugang zu HDR+ geben wollen, für die eigene Kamera-App aber benötige man komplexere Funktionen, die mittels des Visual Core derzeit nicht realisierbar seien. Künftig sei es aber denkbar, dass auch Google den Visual Core anspricht.
Der Dualismus der Dual-Kamera
Dual-Kameras sind Trend der Stunde und kaum ein Highend-Smartphone kommt ohne aus. Eine zwangsläufige Auswirkung auf die Bildqualität ist aber nicht gegeben. Reynolds stellt dar, dass eine Dual-Kamera mit Kosten verbunden sind, die für höhere Smartphone-Preise sorgen - den Käufern entstehen also höhere Kosten. Einerseits kosten zwei Bildsensoren mehr als einer, andererseits erfordern Dual-Kameras mehr Ressourcen im Arbeitsspeicher. Eine Dual-Kamera erfordert also Kompromisse, die Google offenbar beim Pixel 2 XL nicht eingehen wollte.
Ist die Kamera für Euch ein wichtiges Kaufkriterium? Und welche Kamera verwendet Ihr aktuell?
Dank nur einer Kamera sind die Pixel Smartphones zum Glück nicht teurer als die Konkurrenz... 😅
Ich bin selbst Besitzer eines Pixel 2 XL und muss wirklich sagen, dass Google damit eindeutig gezeigt hat, dass zwei Linsen nicht notwendig sind. Die Kamera gehört mit zu den besten, macht grandiose Bilder, und das mit einer Linse, während so mancher Hersteller sogar schon drei verbaut, und damit immer noch nicht mithalten kann.
Es kommt drauf an, was man mit dem zweiten Sensor macht... Nicht jedes Dual-Kamera-Setup ist dafür konzipiert, den Hauptsensor zu unterstützen... ehrlich gesagt gibt es sogar nur ein einziges, nämlich das von Huawei (und Nokia).
Apple, Samsung, LG und. Co. nutzen andere Konzepte und da kommt Google mit einer Linse nicht weit...
Die beste cam die hätte samsung weiter führen müssen war die voll k-zoom
Die Leute wissen nicht was sie reden:
"Um den Speicherplatz müsse sich ein Pixel-User ohnehin keine Gedanken machen, denn die Bilder würden ja via Cloud (Google Fotos) synchronisiert. "
aber dann:
"..andererseits erfordern Dual-Kameras mehr Speicher."
Bei den Dual-Kameras ist Speicher sind Ressourcen im RAM gemeint. Ich habe das im Artikel korrigiert.
Apple hat extra 1 Gb Arbeitsspeicher für 2 Kameras verbaut.
Falsch. Apple hat mehr RAM verbaut, weil es diesen für die höhere Display-Auflösung braucht.
Das kann man bei Samsung-Phones gut austesten. Mit Full-HD lassen sich deutlich mehr Apps im RAM halten, als mit QHD.
Und das Plus sowie das X haben nun einmal deutlich höhere Auflösungen, als das kleine. Deshalb mehr RAM. Nicht wegen der Kamera.
Die Kamera meines Google Pixel 2 XL ist einfach der Hammer! Ich liebe sie! :)
Dem kann ich uneingeschränkt zustimmen!
Mich interessiert ne Kamera nicht so unbedingt
Der große Kameravergleich: iPhone X vs. Galaxy S9+ vs. Pixel 2 XL vs. P20 Pro
https://www.youtube.com/watch?v=X3cfcEEI9LQ
Also ich sehe das mit den Dual Kameras etwas anders als Google.
Huawei ist fast der einzige Hersteller, der den zweiten Sensor dazu nutzt, um die Bilder des Hauptsensors zu verbessern...
Samsung, LG, Apple usw. nutzen den zweiten Sensor, um mit diesem eigene Bilder zu machen, die nichts mit dem Hauptsensor zu tun haben...
Und gerade sowas wie bei LG kriegt man mit Software eher weniger hin bzw. nicht so einfach und schnell...
Google denkt anscheinend, der zweite Sensor ist lediglich dazu da, um den Hauptsensor zu unterstützen, aber das stimmt nun einmal nicht...
Zudem verstehe ich nicht, wo zwei Sensoren bitte (zwangsläufig) mehr Speicher benötigen und einen Kompromiss darstellen...
Klar, es braucht mehr physischen Platz im Smartphone, aber mehr Speicher?
Achja und ich persönlich bin mir zu 100% sicher, dass das Pixel 3 eine Dual Kamera kriegen wird. Nachdem Google so krass damit rumposaunt hat, dass man eine zweite Kamera doch nicht brauche. ^^
Und wenn's so kommt, sind sämtliche Aussagen, die man einen Tag vorher noch gebracht hat, wieder vergessen.
Wenn am Tage die besten Smartphonekameras eher ähnlich gute Ergebnisse erzielen, mal das eine, mal das andere besser, bei Low-Light und Zoom aber sichtbar das P20 Pro meistens überlegen ist, kann man wohl nicht behaupten dass 1 Sensor auf jedenfall genügt.
Es wird wohl zwangsmässig nötig sein, dass andere Gerätehersteller ebenfalls 3 unterschiedliche Sensoren in ein Gerät verbauen, einfach um auf jedenfall konkurrenzfähig zu sein.....
Das was Google aus der Kamera mit einem Sensor herausholt ist auf jedenfall imposant.
Naja jein.
Man braucht nicht zwingend mehrere Sensoren... Huawei gewinnt bei LowLight hauptsächlich deswegen, weil der Hauptsensor beim P20 Pro so riesig ist... Der 40MP-Sensor ist mal eben fast vier mal so groß, wie der des LG G7...
Wie viel der Monochrom-Sensor mit reinspielt, weiß man nicht. Und bei normalen Weitwinkel-Bildern macht der Telephoto-Sensor quasi gar nichts...
Wenn Samsung, Google und Co. als Hauptsensor einen in der Größe wie Huawei verbauen würden, wäre Huawei höchstwahrscheinlich schnell wieter weiter hinten platziert.
Vor allem wenn man den Sensor dann nicht unnötig mit Pixeln zuklatscht. Diese Größe mit 12-16 MP wäre bei LowLight mit passender Software deutlich besser unterwegs, als Huawei mit seinen drei Sensoren, da bin ich mir sehr sicher.
Also doch, man kann behaupten, dass ein Sensor ausreicht. Wenn man bedenkt, dass das S9 oder Pixel 2 auch bei LowLight recht gut mit dem P20 Pro mithalten können, zeigt sich das recht gut... Das Pro hebt sich ja erst dann ab, wenn man diese KI-Langzeitbelichtung aktiviert. Beim normalen Fotografieren ist es nciht wirklich besser...
"Zwangsmässig" müssen die Hersteller gar nichts, um mithalten zu können ^^
Habe einen aktuellen Kameravergleich gepostet, den ich als sehr fair, gelungen und deshalb als interessant betrachte. Schau es Dir an wenn du Lust hast, und dann änderst du vielleicht Deine Meinung bezüglich den 3 Sensoren bei Low-Light und Zoom, denn das S9 und Pixel kann recht gut nicht mithalten. Nicht auszudenken was Google da zusätzlich herausholen könnte mit ihrer Software-Technik ;)
Und wie man sieht ist auch die Google-Software nicht 'fehlerfrei'.
Ich ändere meine Meinung nicht, da meine Aussage immer noch die gleiche bleibt.
Huawei punktet, weil sie eben einen riesigen Sensor verwenden. Ist quasi logisch, dass der dann auch lichtintensiver ist (wenn man den 10MP-Modus nutzt).
Dafür braucht es aber keine zweiten oder dritten Sensoren...
Genau genommen sind die drei Sensoren sogar recht Sinnlos.
Der Telephoto-Sensor ist recht nutzlos, weil die 40MP hochauflösend genug sind, um 2-3x rein zu zoomen.
Genauso beim Schwarzweiß-Sensor. Dessen Sensor ist deutlich kleiner, und hat somit auch kleinere Pixel. Vor dem P20 Pro war das etwas anders, da er ja weniger Subpixel besitzt und somit größere von eben diesen. Deshalb konnte man bspw. mit einem P10 hellere Schwarzweiß-Bilder aufnehmen, gegenüber dem RGB-Hauptsensor.
Durch das Pixel-Pairing beim 40MP-Sensor macht es das aber besser und das auch noch in Farbe ^^
Lediglich für echte Schwarzweiß-Bilder ist der Monochrom-Sensor noch gut...
Nur weil Huawei behauptet, dass bei jedem Bild alle drei Sensoren verwendet werden, muss das nicht wahr sein oder Sinn machen ^^
Tldr;
Huawei gewinnt den LowLight-Bereich ausschließlich wegen dem riesigen Hauptsensr für sich, nicht wegen drei Kameras...