So langsam geht die Entwicklung für die erste Version der Google-Brille Project Glass in den Endspurt und Google gewährt erste Einblicke: In einem vor wenigen Stunden hochgeladenen Video zeigt Google erstmals, wie die Brille funktioniert und was der Träger sieht bzw. welche Informationen er eingeblendet bekommt.
Bei der ersten Vorstellung des Project Glass gab es einige Aufschreie, dass dem User durch die eingeblendeten Informationen die Sicht genommen oder er zu sehr von der Außenwelt abgelenkt sein wird. Doch das jetzt präsentierte Interface widerlegt dies ganz klar – die Einblendungen finden nur in einer Ecke und auch dort halbtransparent statt.
Bedient wird die Brille in dem Konzeptvideo via Spracherkennung, dabei wird sie mit den Worten „OK Glasses“ aktiviert und hört danach auf die Befehle des Benutzers. Dabei kann navigiert werden, Fotos oder Videos aufgenommen oder auch eine Websuche gestartet werden. Im Standby werden in der Ecke nützliche Informationen wie die Uhrzeit oder das Wetter angezeigt.
Während der Spracheingabe zeigt die Brille eine Reihe von möglichen Befehlen an die das Gadget „erwartet“ und scheint dadurch eine sehr hohe Trefferquote bei der Erkennung der gesprochenen Sätze zu haben. Mit dem Video lehnt sich Google allerdings sehr weit aus dem Fenster, da die Brille selbst einen geschrienen Befehl aus einer fahrenden Achterbahn (mit entsprechen viel Fahrtwind) problemlos erkannt hat.
Außerdem hat Google heute auch die offizielle Google Glasses-Website gestartet und gibt jedem Hobby-Entwickler und Gadget-Freak die Möglichkeit sich um eines der ersten Geräte zu bewerben – leider derzeit nur in den USA.
In den letzten Wochen hat Google bereits einige technische Einblicke in die Hardware gegeben und unter anderem auch die Bone Conduction – Übertragung von Sound durch vibrieren der Schädeldecke – vorgestellt.
» Google Glasses Homepage
» Weitere Artikel über das Project Glass