GoogleWatchBlog

Google Maps 3D: So funktioniert die neu Immersive Routenplanung – Entwickler geben Einblicke (Videos)

» Web-Version «

Das jüngste große Update für Google Maps brachte nicht nur das Tempolimit und eine starke neue Suchfunktion, sondern hatte unter anderem auch die Immersive View-Routendarstellung im Gepäck. Mit dieser haben Nutzer die Möglichkeit, eine geplante Route vorab in einer 3D-Ansicht „abzufliegen“ und zu erkunden. Jetzt haben die Ingenieure verraten, wie aufwendig und datenintensiv die Entwicklung gewesen ist.


Mit den Immersive View-Ansichten hat Google Maps eine völlig neue 3D-Ansicht etabliert, die seit einiger Zeit für immer mehr Regionen ausgerollt wird und mit den Immersive View-Routen nun die erste Erweiterung erhält. Mit diesem Feature gibt man den Nutzern die Möglichkeit, die gesamte geplante Fahrstrecke in einer beeindruckend realistischen 3D-Ansicht zu erkunden und somit Details zu erkennen, die sonst weder auf der Karte, der Satellitenansicht oder in Streetview sichtbar wären. Denn Immersive View ist eine Kombination aus vielen verschiedenen Daten- und Bildquellen.

Im Google Maps-Blog wird jetzt ausführlich erklärt, wie das Ganze funktioniert. Weil die gesamte Umsetzung sehr technisch und hochkomplex ist, findet ihr hier nur eine Kurzfassung und könnt euch bei Interesse das englische Original im Google-Blog durchlesen.

Den Grundstein für die Darstellung legen laut den Angaben aus dem Blog mehrere Milliarden Bilder aus den unterschiedlichsten Quellen, die zu einem 360 Grad-Layer zusammengefasst werden. Dabei können Satellitenbilder, Flugzeugfotos, Streetview-Aufnahmen und weitere Quellen zählen. Wie ihr oben sehen könnt, gehört auch eine Höhenkarte dazu, um die grundlegende Darstellung von Gelände, Straßen und Gebäuden korrekt wiederzugeben.

Tatsächlich soll das Zusammenfügen wohl vergleichsweise einfach sein und die Schwierigkeit an einer ganz anderen Stelle liegen: Denn das Bildmaterial muss exakt an das vorhandene Google Maps-Kartenmaterial angepasst werden. Und dabei reden wir nicht von einer groben Platzierung in Metern, sondern Zentimeter-genau.




Möglich machen das selbstentwickelte Technologien, die Objekte, Straßenverläufe, Fahrzeuge, Verkehrsschilder und vieles mehr erkennen können, um diese mit den Google Maps-Kartendaten abzugleichen. Hat man das geschafft und diese 2D-Bilder an exakter Stelle auf die Karte gebracht, geht es damit weiter, die gesamten Medien in ein 3D-Modell umzurechnen. Denn das ist die Grundlage dafür, dass sowohl die Nutzer als auch die Routenplanungs-Algorithmen die Karte beliebig schwenken, drehen, kippen und anderweitig bewegen können.

Ist das 3D-Modell fertig, muss noch die Routenplanung ihre Arbeit verrichten, was wohl auch schwieriger ist, als man zuerst denken würde. Denn die auf der Karte platzierte blaue Linie für die Route muss exakt auf die Straßen gelegt werden. Diese ist demzufolge je nach Ansicht von Gebäuden, Bäumen oder auch Erhebungen verdeckt. Das sorgt dann erst dafür, dass die Darstellung realistisch wirkt. Viele weitere Infos findet ihr im Google-Blog.

» Waze: Googles zweite Navigations-App soll jetzt vor Unfallschwerpunkten warnen – Crash History Alerts

» Android: Steckt Google im Update-Dilemma? Die hohen Anforderungen sollten auch für Updates gelten

[Google-Blog]

Letzte Aktualisierung am 2024-11-14 / Bilder von der Amazon Product Advertising API / Affiliate Links, vielen Dank für eure Unterstützung!


Keine Google-News mehr verpassen:
GoogleWatchBlog bei Google News abonnieren | Jetzt den GoogleWatchBlog-Newsletter abonnieren