Jede neue Pixel-Generation erhält neue Kameratricks, in die ganz unterschiedlichen Bereichen zur Anwendung kommen und meist mit beeindruckenden Ergebnissen aufwarten können. Der jüngste Neuzugang sind die Cinematic Photos, die einen bekannten Kino-Effekt auf die Bilder bringen, der Hintergrund und Vordergrund separat voneinander bewegen lässt. Nun hat Google verraten, wie das Ganze funktioniert.
Google hat im vergangenen Jahr die Cinematic Photos eingeführt, die den typischen Kino-Effekt des leicht auf den Betrachter hinzu beweglichen Objekts mit einem gleichzeitig leicht zurück bewegenden Hintergrund haben. Im Kino bzw. bei der Filmaufnahme wird das recht simpel dadurch realisiert, dass die Kamera zurückgefahren und der Zoom im gleichen Maße erhöht wird. Wie das schlussendlich aussieht, könnt ihr im folgenden Beispielvideo sehen.
Mit einem solchen Effekt lassen sich selbst starre Fotos sehr leicht zum Leben erwecken, doch die Umsetzung ist alles andere als trivial, wie Google nun in einem interessanten Blogpost erklärt. Grob gesagt erreicht man den Effekt dadurch, dass das primäre Objekt (meist eine Person) vom Hintergrund herausgelöst wird und beide Bestandteile entsprechend auf der Z-Achse langsam verschoben werden. Der Zoom auf die Person oder das Objekt muss gar nicht groß sein, denn durch den gleichermaßen leicht verkleinerten Hintergrund sieht der Effekt sehr viel stärker aus, als er es eigentlich ist.
Um das zu erreichen, muss für das Bild eine Tiefenkarte erstellt werden, die die Tiefen und Abstände aller abgebildeten Objekte und Bildbestandteile auswertet. Das allein ist schon eine große Aufgabe, wurde im Laufe der Jahre aber mit den Portrait Photos und anderen Effekten sehr umfangreich trainiert. Natürlich kommt eine KI zum Einsatz, die entsprechend viel Erfahrung hat und dafür sorgt, dass die Übergänge korrekt und dennoch fließend sind. Gerade bei nachträglich in Bewegung versetzten Objekten ist es sehr wichtig, dass keine sichtbaren hässlichen Kanten sichtbar werden.
Wie das genau funktioniert, könnt ihr auf den obigen Animationen sehen sowie detailliert im Google Research-Blog nachlesen. Wir dürfen gespannt sein, welche Effekte sich die Entwickler und Forscher für die nächste Pixel-Generation ausdenken werden und wie man die Bilder zukünftig noch weiter zum Leben erwecken möchte.