Immer wieder testen Googles Entwickler neue Funktionen mit einer kleinen Gruppe von Nutzern, und das gilt offenbar auch für Apps im Beta-Stadium. In der Beta-Version der Google-App für Android findet sich bei einigen Nutzern nun eine neue neue Suchfunktion mit der Bezeichnung ‚Visual Search‘, das eine Erkennung von Objekten mit der Kamera anbietet. Diese können dann wiederum zum Suchen im Web verwendet werden.
Es gibt mehrere Möglichkeiten um eine Websuche mit der Google-App zu starten, die aber allesamt jeweils in Textform durchgeführt werden. Ob diese nun per Tastatur-Eingabe oder per Sprache ausgeführt wird, ist im Grunde egal, denn das Ergebnis ist in den meisten Fällen das gleiche – abgesehen von den vorgelesenen Antworten bei direkten Fragen. Schon bald wird es auch eine visuelle Suche geben, die schon jetzt von einigen Nutzern getestet werden kann.
In der Beta-Version der Google-App findet sich bei einigen Nutzern im Seitenmenü der neue Eintrag ‚Visual Search‘, mit dem der neue Suchtyp angestoßen werden kann. Bei diesem aktiviert sich die Kamera und das Smartphone kann auf das gewünschte Objekt gehalten werden. Mit einem weiteren Touch auf das Kamerabild wird dann ein Foto aufgenommen und dieses für die Suche verwendet. Nach einer kurzen Analyse erscheinen am unteren Rand dann Karten mit den erkannten Objekten und Inhalten.
Das Bild bleibt im oberen Teil des Displays stehen und unten kann man durch die Karten mit den Suchvorschläge scrollen. Diese sind jeweils mit einem Symbolbild und einem Stichwort ausgestattet und starten dann bei einem weiteren Touch eine Websuche mit genau diesem Keyword. Diese Funktion kann aber auch schon durch die Vorschläge helfen, Objekte zu erkennen und so die Frage zu beantworten. In obigem Beispiel kann man sehen, dass selbst aus einem einfachen Text und Logo einiges herausgelesen werden kann.
Die Funktion befindet sich selbst in der Beta-App noch im Beta-Stadium und ist auch entsprechend durch ein Label am oberen Rand gekennzeichnet. Man kann also von einem Beta-Beta-Stadium sprechen, das es ganz so schnell wahrscheinlich noch nicht in die finale App schaffen wird. Dafür spricht auch, dass die Funktion derzeit im Menü noch gut versteckt ist und so nur von wenigen Nutzern überhaupt gefunden werden dürfte.
Das ganze erinnert sehr stark an die längst vergessene Goggles-App, die aber noch immer im Play Store zur Verfügung steht. Diese hat schon vor vor über sechs Jahre praktisch die gleiche Funktionalität geboten und wurde seit einigen Jahren nicht mehr weiter entwickelt. Zur Erkennung von Objekten oder Sehenswürdigkeiten nutze ich sie persönlich bis heute – und nun könnte diese Technologie (in hoffentlich deutlich verbesserter Form) endlich ihren Weg in die Google-App finden.