Das Web hat sich in den vergangenen Jahren rasant weiterentwickelt und hat durch Web-Apps und viele neue Technologien ein ganz neues Gesicht bekommen. Doch bei aller Interaktivität und nett anzusehenden Effekten wird häufig die Barrierefreiheit vergessen – das wissen auch die Google Chrome-Entwickler. Jetzt haben die Entwickler eine interessante Neuerung vorgestellt, mit der Bilder im Web automatisch dank Google Lens beschriftet werden. Und auch das Google Maps-Team bringt eine große Verbesserung für Sehbehinderte.
Ursprünglich bestand das WWW nur aus Text und war somit perfekt zugänglich und barrierefrei – doch das hat sich sehr schnell geändert. Heute dominieren Bilder, Videos und andere Medien viele Webseiten und machen es sehbehinderten Menschen nicht leicht, die Webseiten sinnvoll zu nutzen. Eigentlich wurde dafür das ALT-Tag bei HTML erdacht, das jedem Bild einen Alternativtext verpasst, der dann angezeigt wird, wenn das Bild nicht geladen werden kann. Aber auch Screenreader verwenden diesen Text zur Sprachausgabe für den Nutzer.
Viele Webmaster machen sich aber nicht die Mühe, die Bilder und Fotos mit einem solchen Tag zu versehen oder schreiben nur sehr unzureichende Informationen in diesen Bereich herein. Noch schlimmer ist es, wenn die Bilder dann einfach mit „Foto1“, „Foto2“ und so weiter beschriftet werden – das hilft niemandem und wurde dann einfach nur umgesetzt, um die Standards zu erfüllen und nicht von der Google Websuche abgestraft zu werden.
Google Chrome will dieses Problem nun dadurch lösen, dass alle Bilder im Web automatisch mit einem solchen Tag versehen und auch dank Künstlicher Intelligenz sinnvoll beschriftet werden können. Dazu kommt Google Lens zum Einsatz, das sehr zuverlässig Objekte auf Fotos erkennen kann.
Der Alternativ-Text soll immer dann zum Einsatz kommen, wenn es keinen ALT-Text gibt. Dieser soll dann mit „Appears to be“ gefolgt von der Beschreibung eingesetzt werden. Bei obigem Bild heißt es „Appears to be: Fruits and vegetables at the market.“ Es ist also tatsächlich ein ganzer Satz und nicht nur eine Auflistung von erkannten Objekten. Das wird in der Form natürlich nicht mit allen Bildern so gut funktionieren, aber die KIs dahinter werden im Laufe der Zeit natürlich auch immer besser.
Alternativ kann der Nutzer das Bild auch direkt über das Kontextmenü an die Google-Server senden und beschreiben lassen – das ist vor allem dann nützlich, wenn es einen unzureichenden Alternativtext gibt oder der Nutzer auf mehr Informationen hofft. Alle Bilder müssen dazu an die Google-Server gesendet werden, die dann Google Lens über das Bild laufen lassen. Vorerst funktioniert das allerdings nur in englischer Sprache.
Wie ihr diese Funktion aktivieren und nutzen könnt, könnt ihr in diesem Support-Artikel nachlesen.
Siehe auch
» Die Augen des Google Assistant: Google Lens ist weit von dem entfernt, was mal versprochen wurde (Video)
» Google Chrome: Telefonanrufe vom Desktop aus am Smartphone starten – so lässt es sich nutzen