Künstliche Intelligenz übertrifft den Menschen: Google-Schwester Deepmind spielt Quake III (Video)
Die Google-Schwester Deepmind beschäftigt sich immer wieder damit, die eigenen Künstlichen Intelligenzen vor neue Herausforderungen zu stellen und hat dafür schon vor einiger Zeit die Spielewelt für sich entdeckt. Jetzt ist es den Entwicklern gelungen, dass die KI den Spieleklassiker Quake III von Null an selbstständig gelernt hat und schon nach kurzer Zeit besser als jeder menschliche Spieler geworden ist.
Deepmind, die ehemalige Google-Tochter und heutige Alphabet-Tochter arbeitet immer wieder an faszinierenden Technologien rund um die Künstliche Intelligenz. Während sich Google vor allem mit praktischen Ansätzen beschäftigt, die auch heute bereits möglich sind – wie etwa Google Duplex, ist Deepmind stets mehrere Schritte weiter und lotet die Grenzen aus. Viele Beispiele dazu findet ihr in unserem großen Deemind-Archiv.
Deepmind ist es nun gelungen, den bekannten Capture-the-Flag Modus in Quake III zu spielen und dabei so gute Ergebnisse zu liefern, dass sie für einen menschlichen Gegenspieler unbesiegbar ist. Das Beeindruckende daran ist aber nicht nur das Erlernen des Spiels, sondern auch, wie die KI das Spiel wahrnimmt. Sie wird mit dem gleichen Bild versorgt, das auch die menschlichen Spieler zu Gesicht bekommen. Dieses muss also erst einmal ausgewertet und dann eine virtuelle Karte erstellt werden.
Auch das Spielprinzip wurde der KI nicht fest einprogrammiert, sondern musste durch zahlreiche Versuche selbst erlernt werden. Dabei kam es dann auf die für den Menschen einfache Erkenntnis, dass es gut ist, soviele Bereiche wie nur möglich zu erobern und dadurch schlussendlich das Spiel zu gewinnen. Nachdem dann das Spielprinzip von der KI verstanden und eine Karte der virtuellen Welt im Hinterkopf der KI (Wenn man das so nennen kann) gespeichert wurde, ging es an die Strategie.
Im Laufe der Zeit hat die KI die Gebiete exakt vermessen und sich Strategien zurechtgelegt, die es einem menschlichen Gegenspieler praktisch nicht mehr möglich machen, ein Spiel zu gewinnen. Von der schnelleren Reaktionszeit einmal ganz zu schweigen. Dazu benötigte es zwar weit über 100.000 Trainingsspiele, aber schlussendlich wurde das gewünschte Ergebnis erreicht. Allein schon dieser Zeitfaktor macht einen Vergleich mit dem Menschen aber auch nicht ganz so leicht.
Im Deepmind-Blog und einem entsprechenden Whitepaper (Links sind am Ende des Artikels) wird die Funktionsweise des Systems sehr ausführlich erklärt, wobei einige Dinge – wie bei den KIs üblich – eher auf Vermutungen als auf Wissen basieren. Auch hier kann man wieder sagen, dass die Entwickler nicht genau wissen, wie die KI überhaupt funktioniert und es in den meisten Fällen auch nicht nachvollziehen können.
Quake ist nicht das erste Spiel, das Deepmind bestritten hat: Weltbekannt wurde die KI unter dem Titel AlphaGo, die mehrmals die amtierenden Weltmeister besiegt hat und theoretisch als weltbester Go-Spieler gilt. Ende des vergangenen Jahres hat man die KI dann auch innerhalb von nur einem halben Tag zum weltbesten Schachspieler erhoben – wobei beide Spiele natürlich klare Regeln habe und vergleichsweise simpel (wenn auch nicht leicht zu spielen sind). Bei einem Shooter sieht das, inklusive der vorher notwendigen Grafik-Erkennung, schon wieder etwas anders aus.
Schon vor längerer Zeit wurde angekündigt, dass die KI auch StarCraft II lernen soll, ob und wann man damit rechnen kann, wurde seitdem aber nicht mehr kommuniziert.
» Ankündigung im Deepmind-Blog
» Whitepaper
Siehe auch
» Deepmind: Künstliche Intelligenz der Google-Schwester kann Szenerien erfassen und verändert darstellen (Video)
[heise]
GoogleWatchBlog bei Google News abonnieren | GoogleWatchBlog-Newsletter