Pixel 4: So funktioniert der neue Astromodus auf den Pixel-Smartphones – Google gibt interessante Einblicke
Mit den Pixel 4-Smartphones hat Google den neuen Astromodus eingeführt, der es den Nutzern ermöglicht, einen Sternenhimmel zu fotografieren und dabei recht ansprechende Ergebnisse zu erhalten. Was so einfach klingt, erfordert aber tatsächlich einen enormen Aufwand im Hintergrund und jede Menge Algorithmen und KIs, die das Bild haarklein analysieren und optimieren. Jetzt geben die Entwickler interessante Einblicke, wie dieser Modus funktioniert.
Mit der dritten Pixel-Generation hat Google die Nachtfotografie eingeführt, die in der Dunkelheit sehr beeindruckende Ergebnisse liefert und bis heute von der Konkurrenz unerreicht ist. Sehr gut zu sehen ist das in den von Google produzierten Werbespots und wirklich sehr sehenswerten Werbespots Lose the Flash, not the moment und auch No competition. Für die Pixel 4-Smartphones hatte man sich etwas Neues einfallen lassen und dabei auch in die Sterne gesehen.
Den Sternenhimmel zu fotografieren ist für jede Kamera und jeden Fotografen eine große Herausforderung: Das Licht ist schlecht, ein Blitz hilft nur bedingt und die eigentlichen Objekte sind Hunderttausende oder viele Millionen Kilometer entfernt. Keine guten Voraussetzungen, erst recht nicht für eine Smartphone-Kamera. Problematischer wird es, wenn nicht nur der Himmel zu sehen ist, sondern auch Personen und Szenerien ganz in der Nähe.
Dann hat man plötzlich die meist optimaler ausgeleuchteten Personen oder Objekte und den dunklen Nachthimmel in einem Bild. Außerdem hat man Personen wenige Meter vor der Linse, während das Himmelsmotiv wie bereits gesagt extrem weit entfernt ist. In den allermeisten Fällen wird man also nur die Objekte vor der Linse mit einem komplett schwarzen Hintergrund sehen, ohne auch nur einen einzigen Stern erkennen zu können. Höchstens der Mond könnte noch sichtbar sein, aber das war dann auch schon alles.
Googles Ingenieure haben sich dieser Herausforderung gestellt und den Astromodus entwickelt, der in der Form auf Smartphones noch ziemlich einzigartig ist. Wer ihn auch abseits des Pixel 4 verwenden möchte, kann sich übrigens diese modifizierte Kamera-App herunterladen.
Oben seht ihr ein ziemlich perfektes Bild, das tatsächlich in der Form ohne jegliche Bearbeitung mit einem Pixel 4-Smartphone geschossen worden sein soll. Dabei ist natürlich zu beachten, dass die Fotografen für perfekte Bedingungen gesorgt haben und sich am perfekten Tag in die perfekte Position gestellt haben. Solche Ergebnisse sollte man als Hobbyfotograf, der nur den Auslöser drücken kann und sonst nichts, eher nicht erwarten. Dennoch, nicht vergessen: Das hat die winzig kleine Smartphone-Kamera geschossen.
Um solche Ergebnisse zu erzielen, muss die Kamera-Software jede Menge Tricks auffahren: Als Erstes muss eine extrem lange Belichtungszeit von mehreren Sekunden gewählt werden, die viele Fotos nacheinander schießt, die dann zu einem Kunstwerk zusammengefügt wird. Weil sich die Sterne aber bewegen (bzw. die Erde sich dreht), muss diese minimale Bewegung von den Algorithmen ausgeglichen werden – ansonsten hättet ihr ein solches Bild:
Haben die Algorithmen alle Bewegungen beachtet und herausgerechnet, geht es an den nächsten Schritt. Ein bei starker Dunkelheit aufgenommenes Foto kann oftmals sogenannte „Hot Pixels“ aufweisen, bei denen es sich um viele kleine Lichtpunkte handelt, die über das gesamte Bild verteilt sind und gerade in den dunklen Flächen stark zu sehen sind. Auch diese wollen von der Künstlichen Intelligenz der Kamera-Software entfernt werden, wie ihr auf folgendem Bild sehen könnt.
Aber nicht nur die Aufnahme bzw. Erstellung des fertigen Bildes ist eine Herausforderung, sondern auch das Livebild im Sucher muss ganz nebenbei stark aufgehellt und optimiert werden, sonst könnte der Nutzer gar nicht sehen, was er gleich aufnehmen wird. Das löst man mit einer Aneinanderreihung von vielen schnellen, aber etwas länger belichteten, Aufnahmen und bastelt dadurch ein kaum merkbar zeitversetztes Bild für die Vorschau. Mit diesem kann dann auch der Autofokus besser arbeiten.
Kommen wir zur letzten Schwierigkeit: Die Fotografie einer Szenerie mit dem Nachthimmel im Hintergrund. Obiger Vergleich zeigt, dass die Kamera-Software des Pixel 4 den Hintergrund vom Rest des Bildes trennen und einzeln bearbeiten kann. Der Sternenhimmel wird leicht abgedunkelt und der Vordergrund wird durch eine automatische Korrektur entweder erhellt oder bleibt unberührt. So ergibt sich ein Bild mit dem größtmöglichen Realismus.
Das ist notwendig, weil normalerweise entweder der Nachthimmel zu hell dargestellt wird und damit unrealistisch wirkt oder umgekehrt das Hauptmotiv zu dunkel abgebildet ist. Durch die Trennung erreicht man das optimale Ergebnis.
Detaillierte Erklärungen und viele weitere Beispielbilder findet ihr direkt im Google AI-Blog.
Siehe auch
» Android 10: Googles Treble-Wunder bleibt vorerst aus – die aktuelle Android-Verteilung unter unseren Lesern
GoogleWatchBlog bei Google News abonnieren | GoogleWatchBlog-Newsletter