Die Künstliche Intelligenz hat sich in den letzten Jahren enorm weiter entwickelt und steht mittlerweile an einem sehr entscheidenden Punkt, bei dem nicht mehr unbedingt die Weiterentwicklung, sondern die Verantwortung der Entwickler im Mittelpunkt steht. Vor einigen Tagen hatte Google die Veröffentlichung von Grundlagen zur Entwicklung der KIs in Aussicht gestellt. Jetzt wurden sie veröffentlicht und sollen feste Grundsätze im Unternehmen werden.
Google stand vor allem durch das Militär-Projekt Maven in der Kritik, bei dem die Künstliche Intelligenz zu Militärischen Zwecken eingesetzt wurde – zwar nur zur Auswertung von Drohnenbildern, aber dennoch war damit für viele Mitarbeiter und Beobachter eine rote Linie überschritten worden. Nach langen Protesten hatte Google angekündigt, sich aus dem Projekt zurückzuziehen. Das wurde nun noch einmal bekräftigt.
Nicht nur die Künstliche Intelligenz im Zusammenhang mit dem Project Maven, sondern auch bei neu vorgestellten Produkten wie Google Duplex stand in jüngster Zeit in der Kritik und Google-intern wurde klar, dass hier schnell etwas getan werden muss. Es wurde die Ausarbeitung von Grundlagen für die Entwicklung und den Betrieb von Künstlichen Intelligenzen in Aussicht gestellt – und jetzt wurden sie veröffentlicht.
Um diesen Grundlagen noch einmal Nachdruck zu verleihen, wurde der Blogpost unter dem Namen von Google-CEO Sundar Pichai höchstpersönlich veröffentlicht – was nicht wirklich häufig vorkommt. Die Grundlagen lesen sich fast wie eine Bibel, die besagt, dass man nichts Böses bzw. Schlechtes tun soll. Einiges wirkt aus heutiger Sicht noch übertrieben, aber wenn man die Entwicklung der KI in den letzten Jahren betrachtet, dann wird man in einigen Jahren wohl wissen, dass solche Grundlagen wichtig gewesen sind.
Pichai betont, dass dies nicht nur theoretische Richtlinien sind, sondern konkrete Standards und Grundpfeiler, an denen bei der Entwicklung aller KI-Technologien nicht gerüttelt wird bzw. durch die alle zukünftigen und aktuellen Projekte durch laufen müssen. Ich binde hier nun einmal die englischen Grundlagen ein. Sollte Google sie noch in deutscher Sprache veröffentlichen (bei einem so sensiblen Thema macht eine Übersetzung wenig Sinn), reichen wir das natürlich nach.
- Be socially beneficial.
The expanded reach of new technologies increasingly touch society as a whole. Advances in AI will have transformative impacts in a wide range of fields, including healthcare, security, energy, transportation, manufacturing, and entertainment. As we consider potential development and uses of AI technologies, we will take into account a broad range of social and economic factors, and will proceed where we believe that the overall likely benefits substantially exceed the foreseeable risks and downsides.
AI also enhances our ability to understand the meaning of content at scale. We will strive to make high-quality and accurate information readily available using AI, while continuing to respect cultural, social, and legal norms in the countries where we operate. And we will continue to thoughtfully evaluate when to make our technologies available on a non-commercial basis.
- Avoid creating or reinforcing unfair bias.
AI algorithms and datasets can reflect, reinforce, or reduce unfair biases. We recognize that distinguishing fair from unfair biases is not always simple, and differs across cultures and societies. We will seek to avoid unjust impacts on people, particularly those related to sensitive characteristics such as race, ethnicity, gender, nationality, income, sexual orientation, ability, and political or religious belief.
- Be built and tested for safety.
We will continue to develop and apply strong safety and security practices to avoid unintended results that create risks of harm. We will design our AI systems to be appropriately cautious, and seek to develop them in accordance with best practices in AI safety research. In appropriate cases, we will test AI technologies in constrained environments and monitor their operation after deployment.
- Be accountable to people.
We will design AI systems that provide appropriate opportunities for feedback, relevant explanations, and appeal. Our AI technologies will be subject to appropriate human direction and control.
- Incorporate privacy design principles.
We will incorporate our privacy principles in the development and use of our AI technologies. We will give opportunity for notice and consent, encourage architectures with privacy safeguards, and provide appropriate transparency and control over the use of data.
- Uphold high standards of scientific excellence.
Technological innovation is rooted in the scientific method and a commitment to open inquiry, intellectual rigor, integrity, and collaboration. AI tools have the potential to unlock new realms of scientific research and knowledge in critical domains like biology, chemistry, medicine, and environmental sciences. We aspire to high standards of scientific excellence as we work to progress AI development.
We will work with a range of stakeholders to promote thoughtful leadership in this area, drawing on scientifically rigorous and multidisciplinary approaches. And we will responsibly share AI knowledge by publishing educational materials, best practices, and research that enable more people to develop useful AI applications.
- Be made available for uses that accord with these principles.
Many technologies have multiple uses. We will work to limit potentially harmful or abusive applications. As we develop and deploy AI technologies, we will evaluate likely uses in light of the following factors:
Primary purpose and use: the primary purpose and likely use of a technology and application, including how closely the solution is related to or adaptable to a harmful use
Nature and uniqueness: whether we are making available technology that is unique or more generally available
Scale: whether the use of this technology will have significant impact
Nature of Google’s involvement: whether we are providing general-purpose tools, integrating tools for customers, or developing custom solutions
Grundlegende Zusammenfassung
- Schaffe soziale Vorteile und keine Nachteile
- Erschaffe oder verstärke keine Vorurteile
- Alle KI-Technologien werden von Grundauf mit dem Sicherheitsgedanken konzipiert, entwickelt und getestet
- Die letzte Verantwortung für alle Aktionen liegt beim Menschen
- Der Datenschutz ist fest in allen Funktionen verankert
- Erhalte die hohen Standards der Wissenschaft
- Technologien werden so entwickelt, dass sie keinen Schaden anrichten können
In einem weiteren Blogpost meldet sich Google Cloud-CEO Diane Greene zu Wort, die durch das Maven-Projekt stark in der Kritik gestanden hat. Sie verleiht den Worten Pichais noch einmal Nachdruck und verkündet nun hochoffiziell, dass sich Google aus dem Maven-Projekt zurückziehen wird. Gleichzeitig wird aber auch betont, dass eine weitere Zusammenarbeit mit regierungsnahen Institutionen – auch dem Militär – zukünftig nicht ausgeschlossen ist.
Es wäre interessant zu wissen, wann Google mit der Aufstellung dieser Grundpfeiler begonnen hat. Der Brandbrief von Google-Gründer Sergey Brin klang nicht unbedingt danach, dass solche Regeln bereits in Planung gewesen wären. Auch das lange Sträuben gegen die Einstellung des Project Maven mag nicht so recht dazu passen. Doch am Ende zählt das, was dabei herausgekommen ist – und das scheint Hand und Fuß zu haben.
In wenigen Tagen soll der Text auch noch einmal in deutscher Sprache veröffentlicht werden, den wir euch dann natürlich ebenfalls an dieser Stelle nachliefern werden. Grundsätzlich kann man sagen, dass Googles Grundlagen in Zukunft wohl noch eine sehr wichtige Rolle spielen werden.
» Google KI-Richtlinien
» Ankündigung der Auswirkungen auf Google Cloud
Mehr aktuelle Themen zur Künstlichen Intelligenz
» Alle Artikel rund um das Project Maven
» ‚Elon Musk liegt total falsch‘: Ex-Google-CEO Eric Schmidt verteidigt die Künstliche Intelligenz
» Googles Künstliche Intelligenz macht große Fortschritte: Wo soll das noch hinführen?
» Selfish Ledger: Google-Interne Zukunftsvision zeigt die Möglichkeiten der Künstlichen Intelligenz (Video)