Die smarte Bilderkennung Google Lens steht über den Google Assistant jederzeit auf Knopfdruck unter Android zur Verfügung, um den aktuellen Bildschirminhalt zu durchsuchen. Mit dem kommenden Android 14 QPR2 steht ein interessantes Update vor der Tür, das die Auswahl des zu erkennenden Bereichs noch vor der Weiterleitung an Lens ermöglicht. Eine neue Geste macht es möglich.
So mancher Android-Nutzer wird es kennen: Ein langer Tap auf den Home-Button erstellt einen temporären Screenshot, der direkt per Google Assistant an Google Lens gesendet wird und das Durchsuchen des Displayinhalts ermöglicht. Hat Lens die erste Auswertung beendet, lassen sich einzelne Bereiche auswählen, die von Interesse sind. Denn oftmals kann es unklar sein, was überhaupt analysiert werden soll: Welches Bild, welcher Text oder etwas ganz anderes?
In der neuen Android 14 QPR2 Beta 2 zeigt sich nun eine neue Einstellungsmöglichkeit für die Button-Navigation. Dort lässt sich eine neue Geste aktivieren, mit der der zu analysierende Bereich direkt ausgewählt werden kann. Und so funktioniert es: Home-Button gedrückt halten und gleichzeitig das gewünschte Element umkreisen. Wer nicht gerade in Fingerakrobatik geübt ist, wird dafür zwei Hände benötigen. Wurde ein Element eingekreist, durchsucht Lens nur diesen Bereich.
Es ist wohl nur eine Verbesserung für einige Randgruppen, die für diese aber dennoch interessant sein kann. Denn wie viele Nutzer kennen diese Lens-Funktion? Wie viele nutzen sie wirklich und wie viele wollen einzelne Bereiche auswählen? Dazu kommt dann noch das Wissen über diese neue Vorauswahl und schon könnte die Anzahl der Nutzer, die so etwas verwendet, überschaubar sein.
» Android 14: Cooldown-Funktion für wiederkehrende Benachrichtigungen kommt – soll weniger nerven