Google hat den KI-ChatBot Bard für viele Millionen Nutzer freigegeben und baut diesen in recht kurzen Abständen mit neuen Funktionen aus, die von allen Nutzern verwendet werden können. Intern sieht man die Nutzung des eigenen ChatBot allerdings zumindest im produktiven Einsatz nicht so gern und rät den Mitarbeitern dazu, diesen mit großer Bedacht bis gar nicht zu verwenden. Das ist nicht wirklich überraschend.
Die KI-ChatBots wie ChatGPT werden schon heute in vielen Branchen und Nutzergruppen für alle möglichen Dinge verwendet, wobei man aber stets davor warnt, dass die Produkte nach wie vor im experimentellen Stadium sind und man sich nicht unbedingt auf die Antworten verlassen sollte. Auch Google-Mitarbeiter sollen Bard oder andere KI-ChatBots laut einer internen Anweisung nicht für den produktiven Einsatz verwenden. Entwickler sollen darüber keine Codes optimieren oder generieren und kein Mitarbeiter soll interne Daten eingeben.
Diese Warnung ist nicht wirklich überraschend, denn solche Richtlinien dürfte es mittlerweile in vielen Unternehmen geben. Zwar ist es kurios, dass man mehr oder weniger vor dem eigenen Produkt warnt, aber als Anbieter einer solchen Plattform ist das eben nicht zu vermeiden. Auch OpenAI-Angestellte dürften wohl kaum ChatGPT das letzte Wort überlassen. Dafür sind die Technologien noch nicht ausgereift genug und es ist fraglich, ob sie das jemals in dem Umfang sein werden, dass man potenzielle Multi-Milliarden-Dollar-Projekte auf die KI-Kreationen stützt.
Schwerer wiegt da schon die Sorge, dass die Eingabe von Geschäftsgeheimnissen oder sonstigen vertraulichen Dingen dafür sorgen könnte, dass diese auf anderen Wegen an die Öffentlichkeit gelangen. Aber auch das gilt bei vielen anderen Unternehmen und trifft auch auf andere KI-ChatBots zu.
» Android: Update für Pixel Camera Services bringt neue Nachtsicht-Funktionen für Drittanbieter-Apps
[Reuters]