GoogleWatchBlog

Google Fotos: Die Zukunft der Bildbearbeitung – Google zeigt die neuen magischen Funktionen (Videos)

» Web-Version «

Bei der Fotoplattform Google Fotos spielt die Bildbearbeitung eine immer größere Rolle und konnte dank Künstlicher Intelligenz in den letzten Jahren große Fortschritte machen. In diesem Jahr will man dem neuen magischen Editor den nächsten Schritt gehen und die bisherigen magischen Funktionen und deren Stärken zusammenführen. Mit zwei eindrucksvollen Beispielen zeigt man, was schon bald möglich sein soll.


Lange Zeit beschränkte sich die Bildbearbeitung bei Google Fotos auf rudimentäre Dinge wie das Schneiden, Drehen oder Aufhellen von Fotos, was natürlich auch heute noch möglich ist. Doch dank Künstlicher Intelligenz konnte man Funktionen wie den magischen Radierer zum Entfernen von Objekten oder Magic Unblur zum Schärfen verschwommener Bilder einführen. Aber auch die Objekterkennung bzw. Personenerkennung ist immer besser geworden, um diese hervorzuheben und ähnliches.

All das führt man nun im magischen Editor zusammen, der nach eigenen Angaben eine „Bildbearbeitung auf fortgeschrittenem Niveau – für wirklich jede oder jeden“ bieten soll. Nutzer sollen ganz ohne Vorkenntnisse oder lange Photoshop-Tutorials einfach Dinge auswählen und verändern können. Ganz egal ob es Menschen sind, Objekte, der Hintergrund oder andere Bildbestandteile. Diese lassen sich nach Darstellung der Demos einfach auswählen und einzeln bearbeiten.

Dabei geht es aber nicht nur darum, die einzelnen Bestandteile aufzuhellen oder anderweitig zu bearbeiten, sondern tatsächlich vollständig zu verändern oder gar auszutauschen. Auch das Verschieben von Objekten innerhalb von Fotos soll möglich sein, ohne dass das hinterher auffällt. Schaut euch einmal die folgenden Beispiele an, die man auf der großen Bühne gezeigt hat.




Beispiel 1: Objekte entfernen und verschieben

Das erste Beispiel zeigt ein schönes Motiv, aber das Foto hat drei kleine Makel: Die Person hat vergessen, ihre Handtasche abzunehmen. Den spaßigen Effekt mit der Hand unter dem Wasserfall hat der Fotograf nicht gut umgesetzt und auch das Wetter könnte besser sein. Also schnappt man sich in Zukunft den magischen Google Fotos-Editor, wählt diese drei Einzelheiten aus und kann sie entsprechend bearbeiten. Wir sehen zwar die Oberfläche und die Tools nicht, aber es scheint sehr simpel zu sein.

Zuerst wird das Band der Tasche ausgewählt und entfernt – das ist der magische Radierer. Anschließend wird der Himmel-Hintergrund ausgewählt und gegen einen anderen Himmel ausgetauscht. Hier bleibt noch die Frage offen, ob Google Fotos bei Erkennung des Himmels verschiedene Alternativen bietet oder ob man selbst eine Grafik hochladen muss. Auch das Erstellen eines schönen Himmels per generativer Bild-KI wäre möglich.

Im dritten Schritt wird dann die gesamte Person ausgewählt und ein Stück nach rechts verschoben, um den spaßigen Effekt zu erzielen. Zumindest im Beispiel wird die Person inklusive Bekleidung korrekt ausgewählt, anschließend verschoben und die dadurch entstandenen Lücken im Hintergrund werden vom magischen Radierer aufgefüllt. All das ist natürlich auch mit Photoshop möglich, würde aber Vorkenntnisse und vielleicht etwas mehr Bearbeitungszeit benötigen.




Beispiel 2: Hauptmotiv verschieben und Hintergrund tauschen

Wir sehen ein ähnliches Szenario, das sich aber dennoch ein wenig in den Anforderungen unterscheidet: Die Bank wird vom Bildrand in die Mitte verschoben. Das müssen die Algorithmen erkennen und entsprechend nicht den Hintergrund auffüllen, sondern das Objekt selbst verlängern. Selbst die Tiefen bleiben dabei erhalten, denn der Mülleimer neben der Bank ist weiterhin zu sehen. Steht dann eben hinter der Bank. Wäre sicher schöner, wenn er nicht da wäre, aber das kann die KI nicht wissen.

Der Austausch des Hintergrunds ist in diesem Fall noch großflächiger und kann eindeutig zwischen Himmel / Wolken sowie den Hochhäusern unterscheiden. Mehr noch: Selbst die Beleuchtung der Hochhäuser wird ein klein wenig adaptiert. Damit kommt die Funktion des Verschiebens der Lichtquelle zum Einsatz, die es schon seit einiger Zeit gibt.

All diese Neuerungen sollen „in diesem Jahr“ verfügbar sein, dürften also noch länger auf sich warten lassen. Wer allerdings kein Google One-Abo und kein Pixel-Smartphone besitzt, sollte sich (meiner Einschätzung nach) keine Hoffnungen machen.

» Google Fotos: Neue Bildbearbeitung für Tablet-Nutzer kommt – optimiertes Landscape-Layout (Screenshots)

» Pixel 7a vs. Pixel 7: Googles Smartphones im direkten Vergleich – welches bietet das bessere Gesamtpaket?

» Google I/O 2023: Die 100 wichtigsten Ankündigungen der Entwicklerkonferenz – Googles offizieller Rückblick

Letzte Aktualisierung am 2024-11-30 / Bilder von der Amazon Product Advertising API / Affiliate Links, vielen Dank für eure Unterstützung!

[Google-Blog]


Keine Google-News mehr verpassen:
GoogleWatchBlog bei Google News abonnieren | Jetzt den GoogleWatchBlog-Newsletter abonnieren