Pixel 4: Google nutzt den zweiten Kamerasensor nun für bessere AR-Erkennung – auf Pixel 5 wohl nicht möglich
Nach einer vielleicht etwas zu langen Wartezeit hat Google den Pixel-Smartphones einen zusätzlichen Kamerasensor auf der Rückseite spendiert, der längst zum Standard geworden ist. Dieser Vorteil soll nun auch abseits der verbesserten Bildqualität verwendet werden, nämlich für die Augmented Reality-Plattform ARCore. Nun hat Google angekündigt, den Vorteil des Kamera-Duos beim Pixel 4 für die Tiefenerfassung zu nutzen.
Während Google die Virtual Reality vollständig aufgibt, ist man bei der Augmented Reality noch etwas hoffnungsvoller – unter anderem mit der auf vielen Smartphones zur Verfügung stehenden Plattform ARCore. Die Plattform bildet die Grundlage dafür, die Augmented Reality in vielen Apps und Anwendungsgebieten verwenden zu können – wozu natürlich auch eine starke Tiefenerkennung gehört. Bisher wurde diese durch die Analyse des gesamten Kamerabildes erfasst.
Mit dem jüngsten ARCore-Update kommt nun „Dual camera stereo depth on supported devices“ dazu. Das bedeutet, dass auch der zweite Kamerasensor herangezogen werden kann, der naturgemäß an leicht anderer Stelle als der Hauptsensor platziert ist. Durch den leicht veränderten Winkel lassen sich Abstände sehr viel besser einschätzen, was gerade für ARCore eine der wichtigsten Aufgaben ist. Bisher sind nur die beiden Pixel 4-Smartphones als unterstützte Geräte bekannt.
Auf dem Pixel 5, dem noch-aktuellen Pixel-Smartphones, steht das Ganze noch nicht zur Verfügung und wird es möglicherweise auch niemals tun. Das liegt daran, dass der zweite Kamerasensor ein Weitwinkel-Modell ist, das sich wohl nicht für den Vergleich mit dem Hauptsensor eignet.
GoogleWatchBlog bei Google News abonnieren | GoogleWatchBlog-Newsletter