Pixel 7 Pro: So funktioniert Googles Super Res Zoom – Hardware, Software und Künstliche Intelligenz (Video)
Smartphone-Kameras haben schon einen langen Weg hinter sich und haben die Bildqualität in den letzten Jahren immer weiter gesteigert, sowohl in der normalen Ansicht als auch bei gezoomten Fotos. Google bietet mit den Pixel-Smartphones seit bald fünf Jahren den Super Res Zoom, der selbst bei höheren Zoomstufen eine gute Bildqualität bietet. Jetzt gibt man interessante Einblicke darin, wie das funktioniert.
Digitalkameras und Smartphones lassen sich eigentlich nicht miteinander vergleichen und dennoch bieten beide im Amateur-Bereich eine ähnliche Bildqualität. Das gilt auch für gezoomte Aufnahmen, bei denen auch Google mit dem Super Res Zoom in den letzten Jahren stark nachgelegt hat. Schon seit der dritten Pixel-Generation setzt man auf Tricks zur Verbesserung der Bildqualität beim Zoom, damals sogar noch mit nur einer einzigen Kameralinse. Heute steht den Entwicklern deutlich bessere Hardware zur Verfügung, was natürlich auch in den Ergebnissen deutlich sichtbar wird. Man setzt auf ein Zusammenspiel von Hardware, Software und KI.
Hardware
Sowohl im Pixel 7 Pro als auch schon im Pixel 6 Pro hat Google eine Telephoto Lens verbaut, die die Aufnahme von weiter entfernten Objekten bzw. die Zoomfunktion deutlich verbessert. Während große Kameras auf schwere Aufbauten und zahlreiche Linsen setzen, hat man das bei Smartphones etwas anders gelöst. Obige Animation zeigt, wie eine solche Telephoto-Linse aufgebaut ist und sich durch die Spiegelung deutlich mehr Raum verschafft, als es bei den eher schlanken Smartphones möglich wäre.
Überspringt der gewünschte Zoom die Marke von 5x, kommt diese Telephoto Lens bis einschließlich 30x zum Einsatz. Darunter setzt man auf rein digitalen Zoom (Software) und darüber ist mit Bordmitteln kein Zoom möglich. Es ist die Kombination aus mehreren Kameralinsen, die für perfekte Ergebnisse sorgt. Und damit wären wir dann gleich beim nächsten Punkt.
Software
Man setzt auf Software, um die aufgenommenen Rohbilder zu verbessern. Dabei kommen Technologien wie Remosaicinc oder Bracketing zum Einsatz, um die einzelnen Pixel zu verbessern und HDR+ in die Bilder zu bringen. Google beschreibt es folgendermaßen: „Durch das Zuschneiden des inneren Teils des 48-Megapixel-Sensors von Pixel 7 Pro kann Super Res Zoom 12-Megapixel-Fotos mit 10-facher Vergrößerung ausgeben. Diese 12-Megapixel-Fotos bei 10-facher Vergrößerung sind jedoch verrauschter als zuvor und haben auch ein anderes Sensorformat. Ein neuer Algorithmus namens Remosaicing wandelt diese Sensordaten in etwas um, mit dem HDR+ mit Bracketing arbeiten kann, um das Rauschen in der endgültigen Ausgabe zu reduzieren.
Künstliche Intelligenz
Natürlich darf auch die Künstliche Intelligenz nicht fehlen, die dafür zuständig ist, aus den einzelnen Bildern der mehreren Linsen ein Gesamtbild zu schaffen. Diese sorgt dafür, dass die Bilder zueinander passen und sich gegenseitig ergänzen, um in allen Zoomgrößen das perfekte Bild zu schaffen. Ein neuronales Netzwerk sorgt außerdem dafür, bestimmte Fotobereiche aufzufüllen, die ab einer Vergrößerung von 20-fach einfach nicht mehr sichtbar sind und somit künstlich erstellt werden müssen.
—
Das Ganze ist recht komplex, wird im Google-Blog aber einfach erklärt. Schon vor einigen Jahren haben wir euch einen etwas technischeren Einblick darin gegeben, wie Super Res Zoom im Pixel 3 funktioniert.
Letzte Aktualisierung am 2024-12-04 / Bilder von der Amazon Product Advertising API / Affiliate Links, vielen Dank für eure Unterstützung!
GoogleWatchBlog bei Google News abonnieren | GoogleWatchBlog-Newsletter