Google Fotos: Neue Scharfzeichner-Funktion kommt – kann unscharfe Fotos realistisch optimieren (Galerie)
Viele Nutzer von Google Fotos können sich in unregelmäßigen Abständen über neue Bildbearbeitungsfunktionen freuen, die sich in jüngster Zeit darauf konzentriert, misslungene Fotos zu perfektionieren. Jetzt hat man für alle Pixel 7-Nutzer den neuen „Scharfzeichner“ angekündigt, der zumindest in den offiziellen Beispielen beeindruckende Ergebnisse liefert und auch alte Fotos restaurieren will.
Vor einigen Monaten hat Google Fotos mit dem „magischen Radierer“ für Aufsehen gesorgt, mit dem sich Objekte oder Personen aus Fotos entfernen lassen. Das Entfernen ist kein großes Problem, das unauffällige Auffüllen des Hintergrunds hingegen schon. Ähnliche Kunststücke hat man mit der nachträglichen Bearbeitung der Belichtung gezeigt und jetzt kommt mit „Unblur“ die nächste Funktion dazu, die im Deutschen passenderweise „Scharfzeichner“ benannt wurde.
Die neue Funktion soll ein unscharfes Foto soweit analysieren und bearbeiten können, dass es nach dem kurzen Prozess ein scharfes Foto ist. Obige Animation und die unten eingebundenen Fotos zeigen sehr deutlich, das damit gemeint ist. Die Unschärfe der Ursprungsbilder ist jetzt nicht extrem, aber dennoch sehr störend und gerade bei eigentlich wichtigen Aufnahmen extrem ärgerlich. Natürlich hat jede bessere Bildbearbeitung für so etwas Schärfefilter, aber die Ergebnisse lassen oftmals zu wünschen übrig oder sind sogar gesamt betrachtet schlechter als das unscharfe Foto.
Dass Google Fotos so etwas direkt in der Cloud anbieten und bessere Ergebnisse als die meisten Konkurrenten liefern kann, ist wirklich stark. Natürlich muss sich zeigen, ob das auch abseits dieser Marketing-Beispiele so gut funktioniert.
Das Ganze soll automatisch ablaufen, ohne dass man als Nutzer eingreifen muss oder kann. Es gibt wohl keine unterschiedlichen Ergebnisse oder Feintuning, sondern nur die üblichen Google Fotos-Algorithmen mit ihren „perfekten“ Ergebnissen. Man erwähnt mehrfach, dass das auch für alte Fotos funktioniert. Möglicherweise auch für Analogaufnahmen, die man eingescannt hat. Dann vermutlich aufgrund der schlechten Bildqualität nicht ganz so gut, aber jede zusätzliche realistische Schärfe ist ein guter Schritt und kann dabei helfen, wichtige Erinnerungsfotos zu verbessern.
Vorerst gibt es diese Funktion nur für Pixel 7-Nutzer, in einem späteren Schritt wird man es aber vermutlich auch anderen Pixel-Nutzern oder Google One-Abonnenten anbieten.
Vorschau | Produkt | Preis | |
---|---|---|---|
Google Pixel 7 – Entsperrtes Android-Smartphone mit Weitwinkelobjektiv – 128GB - Obsidian | 649,00 EUR 275,76 EUR | Bei Amazon kaufen | |
Google Pixel 7 Pro – Entsperrtes Android-Smartphone mit Tele- und Weitwinkelobjektiv – 128GB -... | 899,00 EUR 370,44 EUR | Bei Amazon kaufen | |
Google Pixel Watch – Android-Smartwatch mit Aktivitätsaufzeichnung – Smartwatch mit... | 379,00 EUR 168,49 EUR | Bei Amazon kaufen |
Letzte Aktualisierung am 2024-12-16 / Bilder von der Amazon Product Advertising API / Affiliate Links, vielen Dank für eure Unterstützung!
GoogleWatchBlog bei Google News abonnieren | GoogleWatchBlog-Newsletter
Das ganze läuft nur nicht in der Cloud ab, sondern setzt einen Google Tensor Chip voraus. Das habt ihr sogar in eurem eigenen Artikel geschrieben.
https://www.googlewatchblog.de/2022/10/pixel7-pro-das-kameratricks/
Wo steht denn, dass das den Tensor-Chip voraussetzt? Ich kann das auch in meinem anderen Artikel nicht entdecken.
Es ist zuerst Pixel 7-exklusiv, aber hat mit Tensor (meiner Kenntnis nach) nichts zu tun.