Ein großer Schritt für Google Lens. Die ‚Augen des Google Assistant‘ liefern schon seit Jahren sehr starke Ergebnisse und bekommen nun endlich ihren großen Auftritt: Google hat das neue Multisearch angekündigt, mit dem sich die visuelle Suche und die klassische Textsuche unter einem Dach vereinen. Das soll vor allem bei der wichtigen Suche nach Produkten helfen.
Mit Google Lens lassen sich seit vielen Jahren Inhalte auf Bilder auswerten, in dem man sie einfach abfotografiert. Die Algorithmen suchen nach ähnlichen Objekten, verwenden eine Objekterkennung und können auch Produkte finden. Bisher war Lens vollkommen von der Websuche unabhängig, aber das soll sich mit dem neuen Multisearch ändern. Dieses erlaubt, sowohl nach dem Objekt als auch Text zu suchen und die Ergebnisse miteinander zu kombinieren.
Im obigen Videobeispiel könnt ihr sehen, wie das funktioniert: Ein Objekt mit Lens fotografieren, in den Suchen-Tab wechseln und schon lassen sich weitere Suchbegriffe eingeben. Wie ihr seht, könnt ihr damit sehr leicht das abfotografierte gelbe Kleid in einer grünen Variante finden. Das ist sicherlich der Optimalfall, soll aber genau so funktionieren. Grundsätzlich ist das nicht anderes als die Rückwärts-Bildersuche, die wir euch bereits vorgestellt haben, nur dass es jetzt besser integriert ist und auf Objekterkennung statt Mustererkennung setzt.
Das neue Feature wird vorerst nur für US-Nutzer ausgerollt, die es gründlich ausprobieren können, bevor es nach einer vermutlich nicht kurzen Wartezeit für viele weitere Nutzer und Sprachen angeboten werden kann.