In immer mehr Haushalten steht einer oder gar mehrere Smart Speaker, deren Assistenten rund um die Uhr auf die Stimmen der Bewohner lauschen und auf Aufgaben, Befehle oder Abfragen warten. Dass es dabei ab und an zu einem False Positive kommt, dürften wohl alle Nutzer schon des öfteren bemerkt haben. Bei einem Amazon Echo kam es nun aber zu einer sehr unglücklichen Verkettung von Zufällen, durch die ein privates Gespräch an einen anderen Nutzer gesendet worden ist.
Die Sprachassistenten von Google Assistant bis Alexa sind sehr praktisch und können nicht nur unzählige Fragen beantworten, sondern auch immer mehr Aufgaben ausführen bzw. sind die Steuerzentrale für das Smart Home. Einer der großen Vorteile, der aber auch zum Problem werden kann, ist die ständige Bereitschaft der Geräte. Durch Zuruf von „Hey, Google“, „OK, Google“ oder das bekannte „Alexa“ werden sie aktiviert und warten auf ihre Aufgabe.
Jetzt ist ein Fall aus den USA bekannt geworden, bei dem Alexa gleich vier mal nacheinander (!) eine Aufforderung falsch verstanden hat und damit die Privatsphäre der Nutzer verletzt hat. Das Ergebnis war, dass ein privates Gespräch in den eigenen Vier Wänden von Alexa aufgezeichnet und an einen Kontakt gesendet wurde, der die gesamte Nachricht abhören konnte. Dieser konnte jedes Wort hören und wusste sehr genau, worüber sich die beiden unterhalten hatten (Parkettböden).
Zuerst ging man von einer Fehlfunktion bzw. sogar einem Hack des Geräts aus, doch das ist nach Prüfung durch Amazon nicht der Fall gewesen. Stattdessen scheint es sehr viele False Positives nacheinander gegeben zu haben, die dann zu diesem Ergebnis geführt haben.
In dem Gespräch ist irgendwann ein Wörtchen gefallen, dass als „Alexa“ wahrgenommen wurde. Danach wurde die Phrase „Sende Nachricht“ erkannt, woraufhin Alexa die Aufnahme gestartet und später auch nach einem Namen gefragt hat. Irgendwann ist dann wohl ein Wort gefallen, dass dem Namen eines Kontakts sehr ähnlich war. Vor dem Senden wurde dann noch einmal eine Bestätigung von Alexa eingeholt, die im Laufe des Gesprächs ebenfalls mit JA bestätigt wurde. Und dann war es geschehen.
Die einzelnen Erkennungsfehler klingen für mich nicht unrealistisch, aber vier Fehler in so kurzer Zeit nacheinander sind dann vielleicht doch schon etwas an den Haaren herbeigezogen. Ich vermute, dass das Gespräch in einem anderen Raum stattgefunden hat, so dass die Qualität der Erkennung nicht mehr den Standards entsprach. Außerdem würde das auch erklären, warum die beiden Gesprächspartner die mehreren Gegenfragen und akustischen Geräusch von Alexa nicht gehört haben.
Amazon spricht von einem „extrem seltenen Ereignis“ und hält eine solche Verknüpfung von unglücklichen Zufällen für extrem unwahrscheinlich. Dennoch ist es passiert – und Amazon gelobt Besserung. Vielleicht wäre es eine gute Lösung, sich nach der erstmaligen Abgabe eines Befehls nicht weitere Steuerwörter aus einem Gespräch herauszupicken, sondern nur auf diese zu hören. Fallen dann viele andere Wörter, sollte die Aufgabe wieder abgebrochen werden.
Prinzipiell kann so etwas wahrscheinlich mit jedem Sprachassistenten passieren, da es einfach Missverständnisse zwischen Mensch und Algorithmus ist. Angesichts der Tatsache, dass sich viele Millionen Geräte im Umlauf befinden und bisher nur ein Fall bekannt ist, kann das eben mal passieren. Missverständnisse zwischen zwei Menschen kommen sicherlich sehr viel häufiger vor, nur dass ein Mensch eben kein Gespräch „aufzeichnen“ und an anderer Stelle wiedergeben kann.
Siehe auch
» Okay GUGU: 85-jährige Italienerin spricht erstmals mit einem Google Home Mini (Video)
» PR-Supergau für Google Home Mini: Testgerät nahm alle Gespräche auf und sendete sie an Google-Server