In den nächsten Tagen dürfen sich viele OnePlus-Nutzer über den neuen Google Assistant Ambient Mode freuen, aber der Google Assistant hat offenbar auch für alle anderen Nutzer wieder eine kleine Überraschung im Gepäck. Eine vor langer Zeit eingestellte Funktion ist nun bei vielen Nutzern wieder aufgetaucht und ermöglicht die Suche nach Kontextinformationen zum aktuellen Bildschirminhalt: Was ist auf meinem Bildschirm?
Der Google Assistant bietet allen Nutzern sehr viele Funktionen und Möglichkeiten an, um an Informationen zu gelangen. Natürlich kann der Assistent per Spracheingabe befragt werden, es lassen sich aber auch Informationen per Tastatureingabe entlocken oder man verwendet einfach den Google Assistant Stream für alle proaktiven Informationen. Und dann gibt bzw. gab es, so genau wissen wir das jetzt nicht, noch die Möglichkeit zum Auslesen des Displays.
Hey Google?! Nutzer berichten von kuriosen Problemen mit dem Google Assistant – wegen YouTube Music?
Mit dem Google Assistant war es bis etwa Mai 2019 möglich, sich Kontextinformationen über die aktuelle Darstellung auf dem Bildschirm zu besorgen. Dazu musste lediglich der Google Assistant aufgerufen und direkt mit der Frage „Was ist auf meinem Bildschirm?“ angesprochen werden. In den allermeisten Fällen gab es dafür auch einen Vorschlag, sodass auch ein einfacher Touch auf den vorgeschlagenen Chip diese Informationen liefern konnte.
Aus unbekannten Gründen wurde die Funktion damals von heute auf morgen eingestellt und war seitdem nicht mehr verfügbar. Seit dem Wochenende berichten nun aber viele Pixel-Nutzer und zum Teil auch Nutzer anderer Smartphones davon, dass die Funktion wieder verfügbar ist und genauso funktioniert wie noch vor einigen Monaten. Auf den folgenden Screenshots ist sehr gut zu sehen, wie dieses Feature funktioniert und welche Informationen ihr erwarten könnt.
Android 10: Sony hat massive Probleme mit dem Update – Rollout wurde wohl für alle Smartphones gestoppt
Grundsätzlich sucht der Google Assistant einfach nach Schlagwörtern im Text oder nach eindeutigen Bildern und bietet zusätzliche Informationen zu Produkten, Songtiteln oder auch Marken an. Das funktioniert mal mehr und mal weniger gut, soll aber vor allem dabei helfen, sehr schnell weiteren Kontext zu bestimmten Informationen zu erhalten. Dabei muss man allerdings auch das Glück haben, dass der Google Assistant die gewünschten Stellen automatisiert erkennt und für relevant erachtet.
Warum das Feature damals eingestellt wurde, ist nicht bekannt. Möglicherweise gab es Probleme mit der Auswertung von sensiblen Bildinhalten. Damals gab es einige Probleme damit, dass der Google Assistant plötzlich wieder Screenshots vom Onlinebanking oder anderen sensiblen Apps und Bereichen anfertigen konnte. Eventuell gab es da einen Zusammenhang, der nun aus der Welt geräumt wurde. Ob das Feature nun wieder für alle Nutzer ausgerollt wird, kann man nur abwarten.
Eine offizielle Ankündigung seitens Google gibt es nicht, ich würde aber davon ausgehen, dass es nicht nur versehentlich wieder vorhanden ist. Das Update könnte sowohl serverseitig als auch per App-Update kommen, wie üblich weiß man das nicht so genau.