Dual-Kameras erklärt: Digitaler Zoom, Bokeh-Effekte, Augmented Reality & mehr
Neu ist die Idee nicht, einem Smartphone gleich mehrere rückseitige Kameras zu verpassen. Aber in den vergangenen Monaten engagierte sich hier insbesondere der chinesische Hersteller Huawei mit – die Tochtermarke Honor einbezogen – gleich vier Telefonen, etwa dem Mate 9 und dem Honor 8. Abgesehen davon gibt es jeweils noch ein Dual-Kamera-Smartphone von Apple, Asus, Lenovo, LG und HTC.
Grundsätzlich kann man dabei zwei verschiedene Ansätze unterscheiden, nämlich jene Modelle mit gleicher Brennweite und jene mit unterschiedlicher Brennweite. Und dann gibt es da auch noch die Sonderlinge mit Time-of-Flight-Kameras.
Gleiche Brennweite für Spezialeffekte
Die meisten Smartphones fallen in erstere Kategorie, mit dem Honor 6X als jüngstem Vertreter und dem Huawei Mate 9 als aktuellem Highend-Androiden. Beide Kameras fotografieren dabei den gleichen Bildausschnitt – allerdings aus einem minimal unterschiedlichen Blickwinkel. Wie das menschliche Gehirn kann die Elektronik im Smartphone dann aus dem Versatz der beiden „Augen“ eine Tiefenkarte des Motivs errechnen und generiert so quasi ein 3D-Bild.
Diese zusätzlichen Tiefeninformationen erlauben es, Effekte nur auf bestimmte Bildteile anzuwenden. Aktuell beschränken sich die Hersteller hier leider auf einen Weichzeichner, um eine selektive Schärfentiefe zu simulieren, wie sie sonst nur großsensorige DSLMs und DSLRs bieten. Nur beim HTC One M8 gab es damals auch die Möglichkeit, etwa Farbeffekte nur auf Vorder- oder Hintergrund anzuwenden – oder Bildteile anhand der Tiefeninformationen freizustellen und in andere Fotos einzufügen.
Gleiche Brennweite, bessere Leistung
Sowohl das Huawei P9 und das Mate 9 als auch das von der Tochtermarke gebaute Honor 8 verzichten bei jeweils einem der beiden Bildsensoren auf die sogenannte Bayer-Maske. Dadurch sammelt der Sensor zwar keine Farbinformationen mehr, liefert dafür aber eine bessere Detailwiedergabe. Das Farbbild wird dann mit den Helligkeitsinformationen unterfüttert, um die Qualität zu steigern. Die in Kooperation mit Leica entstandenen Huawei-Modelle erlauben es auch, den zweiten Sensor separat für Schwarzweiß-Fotos zu nutzen.
Einen Schritt weiter geht dann noch das Huawei Mate 9: Hier steht dem 12-Megapixel-Sensor nämlich ein Schwarzweiß-Sensor mit 20 Megapixeln zur Seite. So lässt sich einerseits die Auflösung im Weitwinkel auf 20 Megapixel steigern. Andererseits ist es aber auch im auf 12 Megapixel gedrosselten Betrieb möglich, den Detailverlust beim digitalen Zoomen einzudämmen – nämlich so lange, bis beim Vergrößern des Bildausschnitts die native Auflösung des Schwarzweiß-Sensors erreicht ist. Dass das ziemlich gut funktioniert, habe ich übrigens noch im Dezember bei meinem alten Arbeitgeber in einem Labortest ausprobiert.
Unterschiedliche Brennweite, mehr Flexibilität
Sowohl das Apple iPhone 7 Plus als auch das LG G5 verfolgen mit ihren Dual-Kameras einen anderen Ansatz. Hier haben die beiden Kameras nämlich jeweils unterschiedliche Brennweiten, also einen anderen Bildwinkel. Beim iPhone 7 Plus gibt es neben der Standard-28-Millimeter-Brennweite dann noch eine zweite Kamera mit 56 Millimetern im Kleinbildäquivalent. Qualitativ sind die Ergebnisse hier natürlich deutlich besser, als wenn man äquivalent digital ins Bild zoomt – und auch der Lösung des Huawei Mate 9 zumindest bei höheren Brennweiten ein wenig voraus.
Das LG G5 dagegen zoomt nicht ins Bild hinein, sondern heraus: Die zweite Kamera bietet hier nämlich einen Bildwinkel von 135 Grad, was etwa 9 Millimetern im Kleinbildäquivalent entspricht. Damit lassen sich tolle Weitwinkel-Aufnahmen fotografieren. Das klappt bei anderen Smartphones zwar auch via Panorama-Funktion, doch gibt es da üblicherweise Artefakte, insbesondere bei bewegten oder sehr nahen Motiven. Wie beim iPhone 7 Plus gilt auch hier: Eine optische Lösung ist Software-Tricks einfach überlegen – zumindest noch.
Time-of-Flight-Kameras
Ein völlig anderer Ansatz findet sich dann noch beim REAL3-Modul zum Einsatz.
Das Prinzip ist eigentlich relativ einfach: Ein im Kamera-Modul verbauter Infrarot-Laser sendet ein gepulstes Licht aus. Anhand der Phasenverschiebung des von der Umgebung reflektierten Lichtes kann die Elektronik dann eine Tiefenkarte errechnen – und zwar deutlich schneller und präziser, als es etwa per Bildauswertung von zwei RGB-Kameras möglich ist.
Aus diesem Grund setzt auch Google bei Project Tango auf diese Kameras, um wirklich erstaunlich gute Augmented-Reality-Effekte zu erzielen. Und wie mir ein hochrangiger Infineon-Mitarbeiter im vergangenen Jahr bei einer Phab-2-Pro-Demo sagte, ist es kein Zufall, dass die Abteilungen von Project Tango und Daydream bei Google direkt nebeneinander sitzen. Denn die ToF-Kameras sind schnell genug, um ein sogenanntes Inside-Out-Tracking für Virtual-Reality-Anwendungen zu realisieren: Anhand der gesammelten Tiefeninformationen kann das Smartphone die Kopfposition des Nutzers relativ zum Raum bestimmen und im VR-Betrieb vor Hindernissen warnen und Bewegungen im Raum in die virtuelle Realität umsetzen. Das wäre ein enormer Fortschritt gegenüber Samsung Gear VR & Co.
Und Ihr?
Abschließend wüsste ich noch gerne, was Ihr über die diversen Multi-Kameras denkt. Wenn Ihr außerdem zu einer bestimmten Technologie oder spezifischen Themen mehr wissen wollt, dann schreibt uns doch gerne einen Kommentar.
Das Amazon Fire Phone habe ich aus diesem Artikel trotz des Multi-Kamera-Systems übrigens bewusst weggelassen. Erstens waren diese auf der Vorderseite des Telefons untergebracht und standen nicht für die Fotografie zur Verfügung – und zweitens ist das Fire Phone nun wirklich zum Vergessen.
Ausblick
Bei den Chinesen von Huawei und Honor ist die Dual-Kamera nicht mehr nur im Highend-Bereich wie beim Mate 9, sondern seit dem Honor 6X auch in der Mittelklasse zu finden. Ich finde die Entwicklung spannend – auch, wenn die Bokeh-Effekte nicht immer einwandfrei funktionieren und insbesondere beim genaueren Hinsehen noch Fehler offenbaren.
Dennoch bin ich überzeugt davon, dass die Computational Photography die optischen und physikalischen Grenzen erweitern wird, die derzeit die Grenzen des Machbaren bei der Fotografie bestimmen. Ich persönlich bin ja extrem gespannt, was wir 2017 im Bereich der ToF-Kameras sehen werden. Bis Konzepte wie Canons Wonder Camera (von 2010!) Realität werden, wird es jedoch sicherlich noch eine Weile dauern.
Ich find vor allem den Bokeh Ansatz interessant. Hier wäre noch ein echter Praxistest bzw. Vergleich toll. Auch den Sony Ansatz mit einer Kamera zwei Bilder unterschiedlicher Schärefeebene aufzunehmen und zu verrechnen.
Guter und interessanter (erster?) Artikel!
Hat mir einen positiven Eindruck hinterlassen, obwohl ich noch nicht alles durchgelesen habe.
Der Artikel ist interessant und informativ. Angenehm auch der sachlich-nüchterne Stil, der auf Sensationshascherei verzichtet.
Vielleicht hätte noch mehr auf die Grenzen der vorgestellten Techniken eingegangen werden können.
So können mich die Dual-Kameras rein zur Bildverbesserung nicht überzeugen. In Kameratests bilden immer noch Geräte mit nur einer Kamera das Spitzenfeld, und auch hochwertige Spiegelreflex- und Systemkameras verzichten auf solche Kniffe, großflächige Sensoren, und verzerrungsarme, lichtstarke Objektive können sie ohnehin nicht toppen.
Als problematisch sehe ich auch, aus zwei leicht unterschiedlichen Bildern, bedingt durch den Abstand der beiden Kameras, ein Bild zu errechnen.
Will man dagegen Tiefeninformationen mit Hilfe der zweiten Kamera gewinnen, sollte der Abstand zur ersten Kamera eigentlich möglichst groß sein. Die entsprechenden Geräte nutzen aber noch nicht mal die volle Breite der Geräte aus, sondern die zweite Kamera sitzt unmittelbar neben der Ersten.
ToF-Kameras halte ich für weniger geeignet, die Fotoqualität zu verbessern, und dafür sind sie auch nicht gedacht.
Sie können in begrenztem Umfang Entfernungen messen, die Lichtquelle wird extrem kurz eingeschaltet (wenige Nanosekunden), so dass diese Kameras vor allem für Innenräume geeignet sein dürften, wo sie auch nicht gegen das intensive Infrarot-Hintergrundlicht der Sonne ankämpfen müssen. Wie im Artikel erwähnt, bleiben sie in Smartphones für Anwendungen wie VR und Tango interessant.
Für Smartphone-VR-Anwendungen sind sie schon deshalb interessant, weil auf externe Vorrichtungen zur räumlichen Positionserfassung verzichtet werden kann.
Bei der Tango-Anwendung sehe ich noch keine echte "Killeranwendung".
Die Vermessung von Räumen mag für Innenarchitekten interessant sein, ob sie reicht, um viele Käufer von dem Konzept zu überzeugen, sei dahingestellt.
AR-Anwendungen sollten auch über grosse Distanzen und im Freien funktionieren.
Hallo Michael, wow – danke für Deinen sehr ausführlichen und interessanten Kommentar.
Das in den beiden Tango-Smartphones verbaute REAL3-Modul von Infineon & PMD kann übrigens die Frequenz des ausgesandten Infrarotpulses von Frame zu Frame anpassen. Die hochfrequenten Frames mit bis zu 100 MHz dienen dann beispielsweise dazu, Handgesten präzise im VR-Betrieb zu erkennen. Und mit den dazwischen abgefeuerten niederfrequenteren Frames lässt sich ein größerer Raum erfassen.
Übrigens funktioniert die Technologie erstaunlich unabhängig von den Lichtverhältnissen. Die ToF-Kamera „guckt nur dann hin“, wenn auch tatsächlich ein Lichtpuls zurückerwartet wird, der dann im direkten Vergleich mit dem Umgebungslicht immer noch ausreichend intensiv ist. Ich habe bei Infineon dazu mal ein interessantes Demo-Video gesehen. Da saß jemand im Auto und fuhr von der Sonne beschienen zwischen Bäumen durch – auf dem Bild der ToF-Kamera waren die ständigen Licht/Schatten-Wechsel quasi nicht sichtbar.
Ich kann mir durchaus vorstellen, dass es in „richtigen“ Kameras zukünftig mal zusätzliche ToF-Sensoren geben wird, um direkt mit den Fotos und Videos eine Tiefenkarte aufzunehmen. Aber ich stimme Dir zu, ein großer Bildsensor mit einem vernünftigen Objektiv ist die beste Wahl für eine richtig gute Bildqualität :-)
Schöne Grüße,
Stefan
Super Artikel! Weiter so! :)
Ich finde die vielen Einstellellungsmöglichkeiten gut beim Honor 6x ,von Standard bis Profieinstellungen.
Wenn Huawei/Honor da dran bleibt und das auch in der Mittelklasse weiter umsetzt ,wird das was man für sein Geld geboten bekommt ,sehr interessant werden .
Jeder der Ahnung hat, würde das iP7+ wählen. Denn jeder weiß, dass eine Vertikale Ausrichtung für die Kamera besser ist als eine horizontale. Aber gut, sind hier ja in einem Android-Forum.
Ich bin verwirrt, wissen es nur die, die Ahnung haben oder doch JEDER? Ich wusste es nicht bzw. ich weiß es immer noch nicht. Warum ist das so? Spring über deinen Schatten und er erkläre es auch den Android-Usern. Vielen Dank im Voraus.
Warum ist das so?
Und jetzt die wirklich spektakuläre Frage... was passiert, wenn man vom Hoch- ins Querformat wechselt?
Ich habe das LG G5 und im Weitwinkel fotografiere ich meistens im Querformat, also dann in der von Apple gedachten, vertikalen Ausrichtung. Intuitiv wohl alles richtig gemacht! ;)
Mir gefällt der LG und Apple Ansatz!
Den von Huawei finde ich weniger nützlich und wer echte Bilder macht nimmt sowieso eher eine echte DSRL Kamera 📷
Finde es schade, dass kein Xenon Blitz in Phones verbaut wird seit Sony Ericsson 📸
2013 gab es noch das Lumia 1020 mit Xenon-Blitz. Aber warum Xenon? Der Triple-Led-Blitz in drei verschiedenen Farben vom Lumia 950 (2015, immer noch bestes Kamera-Smartphone) übertrumpft den Xenon-Blitz in jeder Hinsicht.
Schade, dass kein anderer Hersteller diesen Triple-LED-Blitz einsetzt. S7 und Pixel machen zwar sehr gute Bilder, sind aber im Low Light unbrauchbar, während das 950 auch noch im NO Light erstklassige Fotos macht.
Das S7 ist im low light unbrauchbar? Kann nicht so sein, da. es gerade in dieser Disziplin das Beste ist.
Weil du das 950 nicht kennst. Kameravergleiche zwischen S7 und 950 gibt es aber zu Genüge im Netz.
Hier mal ein Beispiel: allaboutwindowsphone.com/features/item/21306_Smartphone_camera_head_to_head.php
Platz 1 Lumia 950, Platz 2 Lumia 1020, Platz 3 S7
Dann kennst du auch das s7 nicht, wenn du es im low light Bereich als unbrauchbar bezeichnest.
@Matthias:
In deinem verlinkten Artikel steht bei dem Test No.7:
"...Overall, a definite win for the Galaxy S7, which has enough light gathering power (at least, for static scenes) to work miracles in low light."
Ich kann mich noch gut an die Kritik an der Doppelkamera im HTC M8 erinnern, als diese damals veröffentlicht wurde. Es war nunmal die erste ihrer Art (neben dem HTC mit 3D-Doppelkamera) und HTC war der Zeit wohl etwas zu weit voraus und mit 4 Ultrapixel waren die Nutzer auch nicht zufrieden. Ich habe die Effekte nicht genutzt, bearbeite meine Fotos lieber auf dem PC. Aber die HTC-Kamera des M8 war meines Erachtens zu Unrecht so in Verruf, denn für die Pixelzahl gelangen ihr durchaus gute Fotos. Heute kommt fast jeder Hersteller mit diesen Kameras auf den Markt, besonders nachdem das iPhone die Idee aufgegriffen hat. Nur HTC selbst hat wohl erstmal die Nase voll. Und letztlich ist der Nutzen nur für einige Nutzer greifbar, eine wirklich gute Solokamera macht mehr Sinn.
Schon der zweite gute Artikel heute! Danke, ihr schockt mich... :)
Dual-Kameras bleiben Schnickschnack ohne wirklichen Mehrwert.
So ziemlich alle bisherigen Konzepte würden sich locker mit einer einzigen Linse realisieren.
Die einzige Ausnahme ist aller höchstens LG mit dem Weitwinkel, aber durch die geringere Auflösung und die schlechtere Blende macht man diesen Mehrwert auch wieder kaputt.
Das schlechteste Konzept bleibt aber das von Apple.
Die Weitwinkelkamera von LG macht wirklich Spaß. Auch die Bildqualität ist trotz der geringen Auflösung immer noch sehr gut. Das die Linse nicht so Lichtstark störte mich nie.