Google arbeitet seit vielen Jahren an Systemen zur Spracherkennung und bietet diese unter anderem in der Websuche auch schon seit sehr langer Zeit an. Durch den Trend hin zu den digitalen Assistenten wird eine sofortige korrekte Erkennung der Sprachbefehle des Nutzers immer wichtiger, und so arbeitet man natürlich mit Hochdruck daran, diese Technologie immer weiter zu verbessern. Laut eigenen Aussagen hat man dabei in den letzten fünf Jahren große Fortschritte gemacht.
Durch Produkte wie dem Google Assistant und dem schon sehr viel länger zur Verfügung stehenden Hotword OK, Google, kann das Smartphone ständig auf seinen Nutzer hören und dessen Anfragen beantworten bzw. Befehle ausführen. Da viele Menschen aber nicht immer deutlich sprechen oder sich in einer nicht ganz so ruhigen Umgebung befinden, sind die Algorithmen gefordert um dennoch alles zuverlässig zu erkennen.
Seit dem Jahr 2012 setzt Google zur Verbesserung der Erkennung der Sprache des Nutzers auf Neuronale Netzwerke und konnte damit deutliche Fortschritte erzielen. Laut eigenen Aussagen auf einer Konferenz soll sich die Erkennung dadurch in den letzten fünf Jahren um 30 Prozent verbessert haben. Wenn man bedenkt dass die Spracherkennung auch vorher schon relativ zuverlässig funktioniert hat, ist das schon ein sehr guter Wert.
Wie der Einsatz von Neuronalen Netzwerken bei der Spracherkennung genau funktioniert, haben die Entwickler in einem ausführlichen Beitrag im Jahr 2015 erklärt. Hauptsächlich geht es darum, dass die Künstlichen Intelligenzen dahinter versuchen, ganze Wörter und Zusammenhänge zu erkennen, und so auch fehlende oder falsch verstandene Wortfetzen auszugleichen.