GoogleWatchBlog

Google Fotos: Neue Kino-Effekte sind jetzt verfügbar – so funktionieren die Cinematic Photos-Effekte (Video)

» Web-Version «

Viele Nutzer von Google Fotos erhalten in diesen Tagen erstmals vollen Zugriff auf die Cinematic Photos, mit denen sich fast jedes Foto in ein Bild mit Wow-Effekt verwandeln lässt. Denn der Kino-Effekt, der starre Fotos in Bewegung bringt, weiß schon seit längerer Zeit auf den Pixel-Smartphones oder durch den Automatismus zu begeistern. Jetzt verraten Googles Entwickler, wie das funktioniert.


Googles Algorithmen sind sehr gut darin, Fotos in einzelne Bestandteile zu zerlegen und den Hintergrund vom Vordergrund zu trennen sowie Zwischenebenen zu erkennen. Aus der Kombination dieser Erkennung sowie einer automatischen Bildvervollständigung hat man die Cinematic Photos geschaffen, die nun für alle Google One-Abonnenten verfügbar sind. Dabei handelt es sich um einen aus dem Kino bzw. Film bekannten Effekt, mit dem ein statisches Foto mehr zur Geltung kommen kann.

In der Realität bewegt sich die Kamera aus der Szenerie heraus und zoomt in gleicher Geschwindigkeit auf den Vordergrund. Obwohl sich die Größenverhältnisse dadurch nur geringfügig ändern, lässt das den Vordergrund deutlich herausstechen, so wie ihr das im unten eingebundenen Video sehr schön sehen könnt. Für so manche Fotos kann das zum Wow-Effekt werden.

Mit einem solchen Effekt lassen sich selbst starre Fotos sehr leicht zum Leben erwecken, doch die Umsetzung ist alles andere als trivial, wie Google nun in einem interessanten Blogpost erklärt. Grob gesagt erreicht man den Effekt dadurch, dass das primäre Objekt (meist eine Person) vom Hintergrund herausgelöst wird und beide Bestandteile entsprechend auf der Z-Achse langsam verschoben werden. Der Zoom auf die Person oder das Objekt muss gar nicht groß sein, denn durch den gleichermaßen leicht verkleinerten Hintergrund sieht der Effekt sehr viel stärker aus, als er es eigentlich ist.




Um das zu erreichen, muss für das Bild eine Tiefenkarte erstellt werden, die die Tiefen und Abstände aller abgebildeten Objekte und Bildbestandteile auswertet. Das allein ist schon eine große Aufgabe, wurde im Laufe der Jahre aber mit den Portrait Photos und anderen Effekten sehr umfangreich trainiert. Natürlich kommt eine KI zum Einsatz, die entsprechend viel Erfahrung hat und dafür sorgt, dass die Übergänge korrekt und dennoch fließend sind. Gerade bei nachträglich in Bewegung versetzten Objekten ist es sehr wichtig, dass keine sichtbaren unschönen Kanten sichtbar werden.

Wie das im Detail funktioniert, könnt ihr auf den obigen Animationen sehen sowie detailliert im Google Research-Blog nachlesen. Wir dürfen gespannt sein, welche Effekte sich die Entwickler und Forscher für die nächste Pixel-Generation ausdenken werden und diese dann zeitversetzt für alle Nutzer zu Google Fotos bringen. Es geht sichtbar in die Richtung, Bilder zukünftig noch weiter zum Leben zu erwecken.

» Pixel 8 & Pixel 8 Pro: Google arbeitet wohl an einem Desktop-Modus – Smartphones könnten PC ersetzen

» Google Chrome: Jeden Tag ein neues Design – so könnt ihr täglich das Browser-Hintergrundbild wechseln lassen

[Google Research]

Letzte Aktualisierung am 2024-10-18 / Bilder von der Amazon Product Advertising API / Affiliate Links, vielen Dank für eure Unterstützung!


Keine Google-News mehr verpassen:
GoogleWatchBlog bei Google News abonnieren | Jetzt den GoogleWatchBlog-Newsletter abonnieren