Pixel-Monster: Xiaomi 12T (Pro) könnte mit 200-MP-Kamera kommen
In anderen Sprachen lesen:
Mit dem Xiaomi 12T kündigt sich ein weiteres Smartphone des chinesischen Unternehmens an, das ein wahres Kamera-Monster werden könnte. Nach dem Xiaomi 12 Ultra mit 1-Zoll-Sensor und der kürzlich gelaunchten Xiaomi-12s-Reihe könnte das Xiaomi 12T mit Samsung-Sensor mit besonders hoher Auflösung für Furore sorgen.
- Ein noch unbekanntes Xiaomi-Device soll angeblich eine 200-MP-Kamera haben.
- Es wird vermutet, dass bei diesem unbekannten Handy die Rede vom Xiaomi 12T bzw. 12T Pro ist.
- Xiaomi dürfte auch bei diesem Modell die Vorteile der Pixel-Binning-Technologie nutzen.
Aus China sickern Informationen durch, dass sich ein noch namenloses Xiaomi-Gerät mit 120Hz-Display, Snapdragon 8+ Gen 1 und einen 200-MP-Sensor ankündigt. Mit Blick auf das Xiaomis 11T-Duo, welches Ende 2021 gelauncht wurde, erscheint da das Xiaomi 12T als potenzieller Kandidat für diese Spezifikationen. Es ist noch nicht bestätigt, ob das Xiaomi 12T den neueren ISOCELL HP3 oder den HP1 mit einer etwas größeren Pixelgröße verwenden wird.
Unabhängig vom Sensortyp wird das Xiaomi 12T (Pro) erst das zweite Android-Smartphone sein, das mit einer solchen Kamera ausgestattet ist. Das Motorola Edge 30 mit einer 200MP ISOCELL HP1-Kamera hat sich den Titel "weltweit erstes Smartphone mit 200-MP-Kamera" bereits gesichert und soll noch diesen Monat erscheinen. Auch dieses Gerät wird neben der ultrahochauflösenden Knipse mit dem neuesten Snapdragon 8+ Gen 1-Prozessor ausgestattet sein.
Xiaomi 12T könnte Pixel-Binning-Technologie nutzen
Motorola hat in letzter Zeit fleißig sein Premium-Smartphone angeteasert. Das Unternehmen, das sich im Besitz von Lenovo befindet, teilte auch bereits ein Beispielfoto, das auf der Pixel-Binning-Technologie basiert. Dabei werden 4 Pixel zu einem kombiniert und ein Bild mit geringerer Auflösung erstellt. In diesem Fall wurde das 200-MP-Bild durch die 4-in-1-Pixelbinning-Technologie auf ein 50MP-Bild reduziert.
Es ist zu erwarten, dass Xiaomi bei seinem Xiaomi 12T auf die gleiche Technologie setzt. Außerdem dürfte die Kamera des Xiaomi 12T von der exklusiven Partnerschaft Xiaomis mit Leica profitieren. Was die Sensoren dann tatsächlich zu leisten vermögen, sehen wir dann, wenn das 12 T (Pro) offiziell vorgestellt wird.
Seid Ihr der Meinung, dass größere und immer mehr Pixel auf Smartphones notwendig sind? Lasst uns an Euren Gedanken dazu teilhaben.
Via: GSMArena Quelle: Plafuldroid, Weibo
Also ich halte das für völligen Schwachsinn.
Kein Mensch braucht 200MP und wenn man sich die Ergebnisse der 108MP Kameras (mein 11TPro) anguckt, sieht man dass schon das verbauen des Sensors komplett Sinnfrei war.
In der 100% Ansicht sieht man sofort den Pixelmatsch, der das Bild unbrauchbar macht.
Zum Pixelbinning wurde bereits alles gesagt, bei der schlechten Qualität der Minisensoren sinnfrei Technik.
Ich nutze das Pixelbinning in meiner Kameras um 5 Fotos zu einem High Resolution Foto zusammenzusetzen, hier funktioniert das sehr gut, da das Ausgangsmaterial schon sehr gut ist.
Ich nehme Handykameras auch 2023 nicht ernst.
Sogar Hersteller wie Xiaomi wissen eindeutig - und zeigen es auch - dass so viele Megapixel einfach nur dumm sind und definitiv keine besseren Bilder mit sich bringen. Sonst würde so ein Sensor nicht in einem Mittelklasse-Gerät zum Einsatz kommen, während sie bei den Flaggschiffen sogar allesamt mittlerweile ein gutes Stück weit zurückrudern und "nur" noch 50MP verbauen. Samsung ist so ziemlich der einzige Hersteller, der im Flaggschiff nach wie vor 108MP verbaut.
Pixel-Binning löst lediglich ein selbstgemachtes Problem: Zu viele winzige Pixel wieder zusammenführen.
Ich finde den Trend nach wie vor nicht gut. Niemand braucht 200MP, wenn er dafür bessere Bilder mit weniger Pixeln bekommen kann. Ohne den künstlich geschaffenen Zwischenraum der Pixel würde man die Lichtausbeute erhöhen.
Noch dazu werden die Bilder astronomisch groß, wenn man kein Pixel-Binning nutzt.
Pro "größere Pixel". Diesen MP-Wahn gab es schon vor 15 Jahren bei dem Kompaktkameras und er war albern :p
Tobias
Es löst doch ein Problem. Habe ich gutes Licht kann ich dir 200MP voll ausnutzen (große Bilder ausdrucken). Wir es dunkel einfach Pixel Binning. Ich sehe nach wie vor eher Vorteile. Man sieht es ja schon das die Geräte mit viel MP keine Nachteile haben zu Geräten die nur 12MP haben. Apple wird vermutlich auch die 48MP bringen, dann wird man zusätzlich sehen wie „schlecht“ viele MP doch sind ;-)
48MP sind ein Viertel von 200. ich habe 48MP gar nicht erwähnt. Ich hatte z.B. die 108MP vom realme zum Usertest und will diese Datenmengen gar nicht haben. Ist meine persönliche Meinung. Habe auch 12MP Bilder, die gut belichtet sind auf normalen Fotogrößen ausgedruckt und es sieht gut aus. Größere Formate halte ich für eine Nische. Und wenn man sich vorstellt, dass ohne Pixel-Binning mehr Licht einfallen könnte (wegen fehlenden Zwischenräumen), dann halte ich diese Entwicklung nach wie vor für unsinnig.
Und ich rede von dreistelligen MP-Zahlen, wie hier im Artikel auch beschrieben.
Tobias
Dann nehmen wir die 108MP. Ich habe damit nur gute Erfahrung gemacht inklusive einem großen Bild das ich mit den 108MP ausgedruckt hatte. Gilt also nicht nur für die 48MP
@paganini
Selbst bei bestem Sonnenschein wirst du so gut wie nichts von den 200MP haben, weil die Pixel einfach ZU klein sind.
Wenn das einer der neueren Sensoren ist, dann haben die Pixel eine Größe von 0,56µm.
Nur mal zum Vergleich: das ist fast ein ZWÖLFTEL der Pixelgröße vom Sensor eines iPhone 13 Pro. Ein. Zwölftel. Selbst die extrem winzigen Sensoren, die Apple nach wie vor beim UW und Tele nutzt, haben mehr als 3 mal so große Pixel.
Und es ist und bleibt so, dass diese vielen Megapixel quasi nur Nachteile haben. Anders als du behauptest sieht man es eben genau an all diesen Herstellern, die nämlich per default und in ALLEN Beispielbildern immer noch nach wie vor nur 12MP ausgeben, nie die beworbenen 50, 108 oder sonst was.
Wenn sie diesen Pixel-Binning-Abfall nicht machen würden, um diese selbsterschaffenen Probleme zu beheben, dann hätten alle diese Phones massive Nachteile durch diese hohen Auflösungen. Und wenn du eben Pixel-Binning nutzt, kommst du bei den gleichen Auflösungen raus, wie vorher. Du gewinnst absolut nichts.
@paganini
Ja, und ich wette, dass das mit den 200MP auch funktionieren wird. Die Bilder sind ja nicht automatisch schlecht. Meine Vergleiche zwischen 12MP und 108MP waren bei guten Lichtverhältnissen auch positiv, was den Detailgrad angeht. Aber um Welten nicht um den Faktor 9.
Noch dazu waren die Bilder oftmals in Größen über 50mb, in der Spitze sogar fast 75mb. Schwierig zu handhaben. Der Nutzen für wirklich große Ausdrucke ist für mich persönlich komplett vernachlässigbar, vor allem in Hinblick auf den Speicherverbrauch.
Und nach dem Pixeln-Binning waren die Bilder dann auch eben nicht mehr besser, als die meines Vergleich-Smartphones. Eher etwas schlechter.
Eigentlich steckt hinter Pixel-Binning viel mehr, als eine große Sensor-Pixelzahl anschließend wieder zu reduzieren, und diese Idee ist richtig gut:
Wenn viel Licht zur Verfügung steht, kann die volle Pixelzahl verwendet werden, weil der hohe Photonenstrom pro Pixel trotz der geringen Pixelgröße ein gutes Signal -Rauschverhältnis bietet. In der Dunkelheit dagegen wären solch hochaufgelösten Bilder stark verrauscht, weil bei den kleinen Pixeln das Ausgangssignal der Pixel kleiner im Verhältnis zum Rauschensignal wird. Fasst man mehrere Pixel zusammen, steigt die Größe des Nutzsignals mit der Anzahl der zusammengefasst Pixel. Auch das Rauschsignal steigt, aber weniger stark, was an der stochastischen Natur dieses Signals liegt. Pixelbinning bringt also rauschärmere Bilder auf Kosten der Auflösung.
Pixelbinning lässt sich im Bildprozessor per Software durchführen, es gibt aber auch Sensoren, die das selber durchführen können. Bilder hoher Auflösung brauchen natürlich mehr Speicher und auch mehr Rechenleistung, das liegt aber in der Natur der Sache, da solche Bilder auch mehr Informationen enthalten. Der Verlauf der technischen Entwicklung kommt dem aber entgegen.
Vier gebinnte Pixel haben natürlich (wegen der nötigen Abstände) eine etwas geringeren Fläche als ein ungebinnter, weshalb bei ansonsten gleicher Technologie und Lichtverhältnissen letzterer ein etwas besseres Signal-Rauschverhältnis hat, die hohe Auflösung bei besseren Lichtverhältnissen aber gar nicht bietet.
Die Idee des Pixelbinning an sich ist also durchaus clever, allerdings noch nicht mal besonders neu. Das Auge selber hat ebenfalls im Dunklen eine geringere Auflösung, weil die farbempfindlichen Sehzapfen dann nicht genug Licht bekommen. Direkt vergleichbar ist aber analoges Filmmaterial. Grobkörnigere Filme (hoher ISO-Wert) bieten eine geringere Auflösung, sind dafür aber lichtempfindlicher, bei gutem Licht greift man zu Filmen mit höherer Auflösung, aber geringerer Lichtempfindlichkeit.
Das theoretische Potential des Pixelbinning ist aber noch größer als beschrieben. So könnten Bildverarbeitungsalgorithmen nur Teile hoch auflösen, bei Portraitfotos z.B. das Gesicht, während der ohnehin künstlich unscharf gerechnete Hintergrund mit nur geringer Auflösung abgespeichert wird. Erkannte Kanten könnten hochaufgelöst dargestellt werden, und somit weniger "zackig" verlaufen, während der Rest des Bildes zur Speicherplatzverringerung mit geringerer Auflösung abgespeichert wird, was sich insbesondere auch für homogene Flächen anbietet.
Wenn Pixelbinning einen schlechten Ruf hat, liegt das nicht an dem Verfahren selber, sondern an einer häufig schlechten Implementierung. Wenn die Bilder nichts taugen, wird das dem Verfahren angelastet, ohne dass das tatsächlich der Grund dafür ist.
Ausserdem begrenzen auch technisch realisierbare, "beugungsbegrenzte" Linsen die Auflösung. Der hochauflösende Sensor nutzt nichts mehr, wenn ein bescheidenes Linsensystem diese Auflösung nicht nutzen kann.
Mit ist bewusst, das Pixel-Binning per se kein Teufelswerk ist. Was du beschreibst ist aber arg theoretisch. Nichtmal die Bokeh-Effekte von Smartphones sind mMn auch nur annähernd ausgereift.
Ja, man kann mit Pixel-Binning die Qualität erhöhen. Die Entwicklung der aktuellen Sensoren geht aber für mich insgesamt in die falsche Richtung.
@Michael
Trotzdem ist es in der Praxis dämlich. Zum einen hast du dann eine Galerie voll mit unterschiedlichen Auflösungen zusätzlich zu den unterschiedlichen Auflösungen, die die ganzen Android-Hersteller mit ihren ganzen Kameras ohnehin schon "anrichten", wodurch du absolut gar keine Konstanz mehr hast und zudem hast du bei Pixel-Binning eben den Nachteil, dass die per software zusammengeführten Pixel trotzdem noch deutlich kleiner sind, als physische Pixel der gleichen Größe.
Pixel-Binning IST dumm.
Tausend mal intelligenter wäre es, große Sensoren mit niedrigeren Auflösungen und riesigen Pixeln zu verbauen und dann Pixel-Shift zu nutzen. Smartphones machen für HDR usw. ohnehin schon 5-20 Bilder mit jedem Auslösen und das könnte man dann nutzen um die Bilder nachträglich hochzurechnen. Damit und nur Damit hätte man die Vorteile aus beiden Welten.
Pixel-Binning hingegen ist buchstäblich nichts weiter als der krampfhafte Versuch ein Problem zu lösen, das man durch die viel zu kleinen Pixel überhaupt erst erschaffen hat. Also nein, daran ist so ziemlich nichts clever.
Auch die Idee mit den Portraits wäre in der Praxis komplett unbrauchbar, denn das würde sowas wie das nachträgliche Verändern der Hintergrundunschärfe tausend mal komplizierter oder gar unmöglich machen. Und zudem sieht es grottig aus, denn auch bei Unschärfe erkennt man es gut, wenn die Auflösung zu gering und die Unschärfe dadurch pixelig wird.
Dass das Auge im Dunklen eine geringere Auflösung hat, ist mir zudem auch neu. Das menschliche Auge löst nachts nicht niedriger auf, sondern wir fangen an nur noch schwarzweiß zu sehen. Das ist was komplett anderes und geht eher in die Richtung von dem, was Huawei früher mal mit dem Monochrom-Sensor gemacht hat um damit die Lichtempfindlichkeit zu erhöhen.
Pixel-Binning ist echt das dümmste überhaupt.
Man erhöht massiv die Anzahl der Pixel, wodurch diese dann viel zu klein sind und man sie wieder Software-seitig zusammenführen muss, damit man dann wieder (auf dem Papier) größere Pixel mit geringerer Auflösung erhält.
Es braucht deutlich mehr Leistung, um die Auflösung und das Herunterrechnen zu händeln und am Ende kriegt man exakt das gleiche Resultat wie vorher mit echten, größeren Pixeln...