Googles kommende Pixel 4-Smartphones werden einige Innovationen im Gepäck haben, die es in der Form in einem Android-Smartphone noch nicht gegeben hat. Damit zum Start alles reibungslos funktioniert, müssen die neuen Technologien natürlich ausführlich getestet und auch trainiert werden – das gilt vor allem für die Gesichtserkennung. Nun hat Google sich etwas in die Karten blicken lassen und erklärt die Notwendigkeit der öffentlichen Gesichter-Scans.
Die Pixel 4-Smartphones werden über eine Radarsteuerung sowie Gesichtserkennung verfügen, die jeweils auf neuen Technologien basieren und mit den bisherigen Umsetzungen kaum vergleichbar sind. Der Gesichter-Scan etwa wird nicht einfach nur mit einem Bildabgleich der Kamera durchgeführt, sondern verwendet nicht weniger als vier Sensoren inklusive Radar, um Gesichter zuverlässig, blitzschnell und von allen Perspektiven zu erkennen.
Vor einigen Tagen wurde bekannt, dass Google auf der Straße Gesichter für fünf Dollar gekauft, was natürlich erst einmal nach einer merkwürdigen Schlagzeile klingt. Dass das tatsächlich so abgelaufen ist, stellte sich aber sehr schnell heraus und einige Teilnehmer haben in anschließenden Medien-Interviews etwas detaillierter darüber berichtet, wie das Ganze abgelaufen ist. Google „kauft“ die Gesichter natürlich nicht, sondern bezahlt die Nutzer dafür, dass sie ihr Gesicht zu Testzwecken zur Verfügung stellen. Viele Details dazu findet ihr in diesem Artikel.
Im Rahmen der großen Pixel 4-Ankündigungen hat Google nun auch diese Praxis bestätigt und näher erläutert, warum man diesen Schritt überhaupt erst gehen musste. Tatsächlich sind viele moderne Algorithmen zur Gesichtserkennung vor allem mit weißen Männern trainiert worden und erkennen diese Menschen am Besten. Mit dunkelhäutigen Menschen, vielen Frauen oder Asiaten hingegen haben viele Algorithmen Probleme und können nicht zuverlässig arbeiten.
Da Google in diesem Jahr aber ein Maximum an Geschwindigkeit und Zuverlässigkeit bieten möchte und mit Apples Face ID einen großen Konkurrenten hat, musste man die Algorithmen mit allen ethischen Herkünften und Geschlechtern trainieren. Es ist also anzunehmen, dass eher weniger weiße Männer angesprochen worden sind.
https://www.youtube.com/watch?v=KnRbXWojW7c
Die Gesichter der Passanten wurden einfach nur als Testobjekte verwendet, um auch auf die vielen anderen Typen zuverlässig reagieren zu können. Warum man dafür aber nicht einfach unter den eigenen Mitarbeitern „gewildert“ und diesen einige Vergütungen versprochen hat, lässt sich schwer sagen. Man darf davon ausgehen, dass unter den fast 110.000 Google-Mitarbeitern jegliche Kombinationen an Geschlecht, Hautfarbe und ethnischer Herkunft vertreten ist.
Google betont schon jetzt, dass die Nutzer bei dieser Funktion keinen ausführlichen Gesichter-Fingerabdruck (klingt komisch) auf den Google-Servern befürchten müssen. Alle Daten werden lediglich Offline verarbeitet und auf dem Smartphone gespeichert. Die sichere Speicherung übernimmt erneut der Titan M-Chip, in dem alle sensiblen Daten abgelegt werden. Anders würde sich die blitzschnelle Erkennung und Entsperrung wohl auch nicht umsetzen lassen.
Viele weitere Details zur Gesichtserkennung und der Radar-Steuerung bekommt ihr im folgenden Artikel:
[heise]