Die Augen des Google Assistant, Google Lens haben stark zugelegt und die App dürfte mittlerweile zu den am meisten unterschätzten Google-Apps überhaupt gehören. Nun soll die Oberfläche weiter vereinfacht werden, um den Nutzern noch deutlicher zu zeigen, welche Elemente auf einem Bild erkannt worden sind, wie sie sich auswerten lassen und wo sie sich befinden. Ein Testlauf zeigt die neue Oberfläche.
Google Lens ist mit vergleichsweise sehr bescheidenem Funktionsumfang gestartet, kann mittlerweile aber sehr viele Dinge erkennen und ist daher fast schon ein Geheimtipp – wenn auch im völlig anderen Maßstab. Nun bastelt man weiter an der Oberfläche der App, die bei der Darstellung der Ergebnisse angezeigt wird: Statt auf einzelne Elemente zu zoomen, wird nun standardmäßig das gesamte Bild angezeigt, denn zoomen kann der Nutzer später auch selbst und erhält so einen besseren Überblick.
Die Möglichkeiten zur Interaktion mit den gefundenen Elementen werden nun prominenter als bisher dargestellt und sind als eine horizontal scrollbare Chip-Reihe am unteren Bildrand zu sehen. Zuvor waren diese deutlich weiter unten platziert und mussten den Platz mit weiteren Features der Navigation teilen. Das dürfte dazu geführt haben, dass vielen Nutzern diese Interaktionen gar nicht bewusst gewesen sind. Nun wird der Zusammenhang deutlicher.
Die nächste Verbesserung ist die automatisch gefilterte Navigation: Statt bei einem bereits gescannten Bild alle Kategorien anzubieten, auch wenn diese kein Ergebnis hervorbringen, werden jetzt nur noch die Kategorien vorgeschlagen, in denen Lens Ergebnisse gefunden hat. Das vereinfacht die Analyse zusätzlich und erleichtert es neuen Nutzern, die mit Lens noch nicht vertraut sind.
Oben seht ihr im Vergleich die derzeit noch aktuelle Oberfläche von Google Lens. Es wird doch recht deutlich, an welcher Stelle die Verbesserungen vorgenommen worden sind. Die abgebildete vollständige Navigation durch die einzelnen Kategorien ist in der neuen Version nur noch im Kamera-Modus zu sehen, bevor die Analyse des abfotografierten Bildes durchgeführt wird.
Die Auswahl eines noch nicht erkannten Elements ist nun durch einen Druck auf eine nicht markierte Fläche möglich. Lens wechselt automatisch in den Auswahl-Modus und wird die Auswahl noch einmal analysieren. In den meisten Fällen führt das aber nicht zum Erfolg und endet höchstens in einer Texterkennung.
Die neue Oberfläche wird derzeit in der Beta 12.25 der Google-Apps getestet, ist aber noch nicht bei allen Nutzern angekommen.