Es ist nun schon über ein halbes Jahr vergangen, seitdem Google erstmals den smarten Assistenten Lens gezeigt und auch offiziell vorgestellt sind. Schon von Anfang an war die Rede davon, dass Lens sich noch in einer frühen Phase befindet und noch einiges an Entwicklungsarbeit in Anspruch nehmen wird. Jetzt hat Google den Rollout für die Pixel-Smartphones beider Generationen angekündigt und bringt ihn damit erstmals auf die große Bühne.
Der Google Assistant hat sich in den vergangenen Monaten stark weiter entwickelt und ist mittlerweile ein wichtiges Kernprodukt in Googles Angebotspalette – versteht aber eben nur Eingaben per Sprache oder in Textform. Da ein echter Assistent aber auch Augen haben muss, haben die Entwickler ein weiteres Projekt gestartet, mit der die Erkennung von Fotos und Bildern ermöglicht werden soll. Aber Lens kann in Zukunft noch sehr viel mehr sein, als „nur“ die Augen des Assistenten.
Schon vor einigen Tagen ist Lens bei den ersten Pixel-Nutzern angekommen und war direkt in den Assistant integriert. Jetzt hat Google den Rollout auch offiziell angekündigt und gibt damit den Startschuss für den visuellen Assistenten. Dieser wird innerhalb der nächsten Wochen auf alle Pixel (2016) und Pixel 2-Smartphones ausgerollt, allerdings auch nur unter zwei weiteren Voraussetzungen: Die Systemsprache ist Englisch und der Nutzer befindet sich in den USA, Kanada, UK, Australien, Indien oder Singapur.
Ist Lens im Assistant freigeschaltet, steht er direkt unten rechts als zusätzlicher Button zur Verfügung. Mit einem Klick auf diesen Button öffnet sich die Kamera, mit der man dann das zu scannende Objekte fotografiert. Anschließend beginnt Lens sofort mit der Auswertung und informiert, wenn das Objekt erkannt wurde, über alle verfügbaren Informationen.
Hier ein kurzer Überblick über den aktuellen Funktionsumfang des visuellen Assistenten:
- Texte: Scanne und speichere Informationen aus Visitenkarten, URLs, Telefonnummern und Adressen
- Sehenswürdigkeiten: Entdecke neue Städte wie ein Profi, und informieren dich über automatisch erkannte Sehenswürdigkeiten
- Kunst, Bücher und Filme: Erfahre mehr über Filme & Trailer zu Filmen, direkt vom Plakat. Scanne ein Buch und schau dir die Bewertungen und eine schnelle Zusammenfassung an. Werde ein Museums-Guru mit Informationen rund um Künstler. Außerdem lassen sich Termine wie etwa Kinodaten oder Ausstellungen direkt in den Kalender einfügen
- Strichcodes: Scanne Strichcodes oder QR-Codes direkt ein und lass dir Informationen über das Produkt oder den enthaltenen Link anzeigen
Doch obiger Funktionsumfang ist nicht wirklich beeindruckend und ringt sogar dem Uralt-aber-noch-immer-nutzbar-Tool Google Goggles nur ein müdes Lächeln ab. In obigem Video (ab Minute 52) ist aber zu sehen, dass Lens in Zukunft noch deutlich mehr kann, und in der aktuellen Form tatsächlich noch ganz ganz am Anfang steht. Langfristig soll daraus auch eine Plattform entstehen, die von anderen Google-Produkten und wohl auch externen Entwicklern genutzt werden kann.
Warum Google beim Rollout nun Deutschland auslässt, das mittlerweile häufig auch zu den ersten Ländern für neue Funktionen gehört, lässt sich schwer sagen. In mir kommt aber der Verdacht auf, dass Lens vielleicht in Deutschland gar nicht oder nur sehr eingeschränkt zur Verfügung stehen wird – genau wie die starke Gesichtserkennung in Google Photos. Auch diese muss hierzulande erst mit einem Trick aktiviert werden und steht dann auch in deutscher Sprache zur Verfügung.
Wer kein Pixel-Smartphone hat und nicht in diesen Ländern wohnt, kann aber auch Lens mit einem kleinen Trick schon jetzt aktivieren und findet den Assistenten dann innerhalb von Google Photos.
Siehe auch
» Alles aus Google Photos herausholen: So lässt sich die Gesichtserkennung und Google Lens aktivieren
» Google Photos: Wirklich sehenswert – Google Lens hat eine neue Lade-Animation (Video)
» Alle Informationen rund um Google Lens