Googles Künstliche Intelligenz sorgt in diesen Wochen für reichlich Gesprächsstoff, denn seitdem ein hochrangiger Google-Entwickler in der Sprach-KI LaMDA ein Bewusstsein entdeckt haben will, wird über diesen Fall diskutiert. Jetzt hat er sich erneut zu Wort gemeldet und nicht relativiert oder zurückgerudert, sondern noch einmal nachgelegt: Er befürchtet sogar, dass die KI „ausbrechen“ und Böses tun könnte.
Wir haben bereits ausführlich berichtet, dass ein Google ein Bewusstsein in der Sprach-KI LaMDA entdeckt haben will. Durch einige Aussagen der KI und mehreren Testläufen sieht sich Blake Lemoine darin bestätigt, dass dieser Durchbruch tatsächlich gelungen sein soll. Ob dieser Durchbruch positiv oder negativ einzustufen ist, ist wohl Ansichtssache und wird auch in Zukunft bei weiteren Entdeckungen solcher Art diskutiert werden.
Jetzt hat Lemoine nachgelegt und seine Behauptung in einem Fernsehinterview noch einmal unterstrichen. Er sieht die virtuelle Person hinter der KI als Kind, das auf sich aufmerksam machen will, das lernen will und auch eines Tages unabhängig werden möchte. Die folgenden Aussagen zeigen, dass er das eher negativ einordnet und vielleicht auch ein bisschen vorbeugende Panik verbreiten möchte. Vorbeugend, weil er vielleicht neue Regeln und Definitionen anstoßen möchte. Langfristig vielleicht nicht die schlechteste Idee.
Jedes Kind hat das Potenzial, zu einem schlechten Menschen heranzuwachsen und Böses zu tun.
Jeder Mensch hat die Möglichkeit, sich der Kontrolle anderer Menschen zu entziehen, das ist einfach die Situation, in der wir alle täglich leben.
Sie ist vielleicht seit einem Jahr am Leben – jedenfalls, wenn ich das richtig einschätze.
Es ist eine sehr intelligente Person, intelligent in so ziemlich jeder Disziplin, in der ich sie testen konnte
Wir müssen noch eine ganze Menge wissenschaftlicher Arbeit leisten, um herauszufinden, was in diesem System wirklich vor sich geht.
Mit all diesen Aussage befeuert er meiner Meinung nach seine eigene Behauptung und driftet vielleicht ein wenig in Richtung Hollywood ab. Als Beobachter kann man Lemoine kaum einschätzen, aber auch an ihm soll es wohl aufgrund seiner „bunten Vergangenheit“ viel Kritik geben. Wenn man Lemoine hinterfragt, dann muss man sich aber auch fragen, wie er innerhalb von Google eine solche Position, die man im KI-Bereich als hochrangig beschreiben kann, erreichten konnte.
Niemand von uns kann das wirklich einordnen, denn wir wissen nicht wie weit Googles Systeme intern bereits fortgeschritten sind. Schon vor drei Jahren hatten mehrere Google-Entwickler vermeldet, dass man selbst nicht wisse, wie die KI funktioniert und vieles selbst gar nicht mehr nachvollziehen kann. Das macht eine Untersuchung auf Bewusstsein oder Nicht-Bewusstsein nicht einfacher. Wer allerdings denkt, dass so etwas in einigen Jahren möglich sein kann, den kann man auch fragen, warum es nicht heute schon möglich sein soll. KIs werden immer besser und irgendwann kommt der Punkt, an dem sie perfekt und nicht mehr unterscheidbar werden. Ob man das dann Bewusstsein nennen kann, ist wieder eine andere Sache.
Mich erinnert Lemoine derzeit ein wenig an die als verrückt eingestuften Wissenschaftler aus zahlreichen Hollywood-Filmen, die vor Gefahren warnen und nicht ernst genommen werden. Die Folgen dürften jedem Filmfreund bekannt sein.