Die zehn größten KI-Momente bei Google: Das waren die bisher größten Meilensteine der Künstlichen Intelligenz
Ohne Künstliche Intelligenz läuft bei Google gar nichts mehr – zumindest kann man schon seit mehreren Jahren diesen Eindruck erhalten. Obwohl man erst in diesem Jahr mit der generativen KI die richtig große Bühne betreten hat, ist Google schon seit über 20 Jahren in diesem Bereich aktiv. Anlässlich des 25. Geburtstag hat man jetzt die bislang 10 größten KI-Momente bei Google veröffentlicht.
In praktisch allen Google-Produkten steckt Künstliche Intelligenz, auch wenn dies oft nicht wahrgenommen wird. Schon vor einigen Monaten haben wir euch die KI in alltäglichen Google-Produkten gezeigt, die vom GMail-Spamfilter bis zur Google Fotos-Gesichtserkennung reicht und eher im Hintergrund die Dienste verrichtet. Mittlerweile reicht das nicht mehr, denn die generative KI steht im Mittelpunkt aller Bemühungen und muss ständig den großen Auftritt haben. Jetzt blickt Google mit den zehn wichtigen KI-Momenten der Unternehmensgeschichte zurück, das wollen wir euch nicht vorenthalten.
2001: Maschinelles Lernen hilft Nutzer:innen der Google Suche, ihre Rechtschreibung zu korrigieren
Larry Page, Mitbegründer von Google, sagte einmal: „Die perfekte Suchmaschine sollte genau verstehen, was Sie meinen, und Ihnen genau das zurückgeben, was Sie brauchen.“ Bei der Weiterentwicklung dieser Vision haben wir einen großen Schritt nach vorne gemacht, als wir das erste Mal eine einfache Version des maschinellen Lernens eingesetzt haben – und zwar, um bessere Schreibweisen für Websuchen vorzuschlagen. Auch wenn ihr ein Wort nicht richtig schreibt, können wir euch dadurch trotzdem das anzeigen, was ihr sucht.
2006: Google Übersetzer wird eingeführt
Fünf Jahre später haben wir Google Übersetzer eingeführt. Hier nutzten wir maschinelles Lernen, um Sprachen automatisch zu übersetzen. Wir begannen mit Übersetzungen vom Arabischen ins Englische und vom Englischen ins Arabische. Heute unterstützt der Google Übersetzer 133 Sprachen, die von Millionen Menschen auf der ganzen Welt gesprochen werden. Diese Technologie kann Texte, Bilder oder sogar ein Gespräch in Echtzeit übersetzen und auf diesem Weg Sprachbarrieren weltweit abbauen, Menschen bei der Kommunikation unterstützen und den Zugang zu Informationen wie nie zuvor erweitern.
2015: TensorFlow demokratisiert KI
Die Einführung von TensorFlow, einem neuen Open-Source-Framework für maschinelles Lernen, machte KI zugänglicher, skalierbarer und effizienter. Es hat auch dazu beigetragen, das Tempo der KI-Forschung und -Entwicklung weltweit zu beschleunigen. TensorFlow ist heute eines der beliebtesten Frameworks für maschinelles Lernen und wurde zur Entwicklung einer breiten Palette von KI-Anwendungen verwendet – von der Bilderkennung über die Verarbeitung natürlicher Sprache bis hin zur maschinellen Übersetzung.
2016: AlphaGo besiegt den Go-Weltmeister
Im Rahmen des Google DeepMind Challenge Match sahen mehr als 200 Millionen Menschen online zu, wie AlphaGo als erstes KI-Programm einen menschlichen Weltmeister in Go besiegte (ein komplexes Brettspiel, das zuvor für Maschinen als nicht machbar galt). Dieser Sieg war ein Meilenstein und demonstrierte das Potenzial von Deep Learning zur Lösung komplexer Probleme, die einst für Computer unmöglich galten. Der Sieg von AlphaGo über Lee Sedol, einen der weltbesten Go-Spieler, löste eine weltweite Debatte über die Zukunft Künstlicher Intelligenz aus und zeigte, dass KI-Systeme nun lernen können, komplexe Spiele zu meistern, die strategisches Denken und Kreativität erfordern.
2016: TPUs ermöglichen eine schnellere und effizientere KI-Bereitstellung
Tensor Processing Units, kurz TPUs, sind maßgeschneiderte Siliziumchips, die wir speziell für maschinelles Lernen entwickelt und für TensorFlow optimiert haben. Sie können KI-Modelle viel schneller trainieren und ausführen als herkömmliche Chips, was sie für groß angelegte KI-Anwendungen sehr gut eignet. Die im August angekündigte Version v5e ist die bislang kosteneffizienteste, vielseitigste und skalierbarste Cloud-TPU.
2017: Google Research stellt den Transformer vor
Das Google Research-Paper „Attention Is All You Need“ stellte den Transformer vor, eine neue neuronale Netzwerkarchitektur, die beim Sprachverständnis hilft. Vor dem Transformer waren Maschinen nicht sehr gut darin, die Bedeutung langer Sätze zu verstehen – sie konnten die Beziehungen zwischen weit auseinander liegenden Wörtern nicht erkennen. Der Transformer hat genau das enorm verbessert und ist zum Fundament der heute beeindruckendsten Sprachverständnis- und generativen KI-Systeme geworden. Was es für Maschinen bedeutet, Übersetzungen, Textzusammenfassungen, Beantwortungen von Fragen und sogar Robotik und die Erzeugung von Bildern durchzuführen, wurde durch den Transformer neu definiert.
2019: BERT hilft der Suche, Suchanfragen besser zu verstehen
Unsere Forschung zu Transformers führte zur Einführung von „Bidirectional Encoder Representations from Transformers“, kurz BERT. Und das half der Google Suche dabei, die Suchanfragen der Nutzer:innen besser zu verstehen als je zuvor. Anstatt darauf abzuzielen, Wörter einzeln zu verstehen, haben unsere BERT-Algorithmen dabei geholfen, Wörter im Kontext zu sehen. Das verbesserte die gesamte Suche und machte es für Nutzer:innen einfacher, Fragen zu stellen, wie sie es auf natürliche Weise tun würden, anstatt Suchbegriffe aneinanderzureihen.
2020: AlphaFold löst das Problem der Proteinfaltung
Einen Sprung auf dem Gebiet der KI machte DeepMind mit seinem System AlphaFold, das im Jahr 2020 als Lösung für das „protein-folding problem“ bekannt wurde. Proteine sind die Bausteine des Lebens, und die Art und Weise, wie sich ein Protein faltet, bestimmt seine Funktion. Ein falsch gefaltetes Protein könnte Krankheiten verursachen. Seit 50 Jahren versuchen Wissenschaftler:innen vorherzusagen, wie sich ein Protein falten würde, denn das würde dabei helfen, Krankheiten besser zu verstehen und zu behandeln. AlphaFold machte genau das. Im Jahr 2022 haben wir schließlich 200 Millionen Proteinstrukturen von AlphaFold (das deckt fast jeden Organismus auf dem Planeten ab, dessen Genom sequenziert wurde) über die AlphaFold Protein Structure Database frei mit der wissenschaftlichen Gemeinschaft geteilt. Mehr als eine Million Forschende haben es bereits genutzt, um in Rekordzeit an neuen Malaria-Impfstoffen zu arbeiten, die Entdeckung von Krebsmedikamenten voranzutreiben und plastikfressende Enzyme zu entwickeln.
2023: Bard unterstützt euch bei der Zusammenarbeit mit generativer KI
LaMDA, ein 2021 von Google Research veröffentlichtes Large Language Modell, ebnete den Weg für viele generative KI-Systeme – darunter auch Bard. Bard wurde im März dieses Jahres eingeführt und ist mittlerweile in den meisten Teilen der Welt und in über 40 Sprachen verfügbar, darunter auch Deutschland. Damit können es immer mehr Menschen nutzen, um ihre Produktivität zu steigern, Ideen zu entwickeln und Neugier zu wecken. Und wir haben das bisher intelligenteste und leistungsstärkste Modell von Bard mit den Google-Diensten kombiniert, die ihr täglich nutzt – wie Gmail, Google Docs, Google Drive, Google Flüge/Hotels, Google Maps und YouTube –, um euch Aufgaben wie Reiseplanung, das Überprüfen von Antworten und das Zusammenfassen von E-Mails und Dokumenten zu erleichtern.
2023: PaLM 2 treibt die Zukunft der KI voran
Im Mai haben wir PaLM 2 vorgestellt, unser Large Language Modell der nächsten Generation, das über verbesserte Mehrsprachigkeits-, Argumentations- und Codierungsfunktionen verfügt. Es ist leistungsfähiger, schneller und effizienter als seine Vorgänger und unterstützt bereits mehr als 25 Google-Produkte und -Funktionen – darunter Bard, die generativen KI-Funktionen in Gmail und Workspace und SGE, unser Experiment zur umfassenden Integration generativer KI in die Google Suche. Wir nutzen PaLM 2 auch, um die interne Forschung zu allen Themen von Gesundheit bis Onlinesicherheit voranzutreiben.
GoogleWatchBlog bei Google News abonnieren | GoogleWatchBlog-Newsletter
Mit der Bitte um Respekt
Wenn man nun die männliche Form streicht (Kund:innen), macht man sich schuldig, wofür man eingetreten ist. Seien sie so höflich und führen sie auch das männliche Geschlecht an, anstatt es nur mitzumeinen.
Der Rat der deutschen Rechtschreibung empfiehlt daher (Oberste Instanz)
Rücksicht zu nehmen ist auch auf die mehr als 12 Prozent aller Erwachsenen mit geringer Literalität, die nicht in der Lage sind, auch nur einfache Texte zu lesen und zu schreiben.
Auch Menschen, die innerhalb oder außerhalb des deutschsprachigen Raums Deutsch als Zweit- oder Fremdsprache erlernen, sollte der Sprach- und Schrifterwerb nicht erschwert werden.
12% der Menschen können diese Sprache schlecht lesen, schreiben, sprechen oder verstehen.
Folgen sie dem deutschen Gesetz und der österreichischen Empfehlung:
Antidiskriminierungsrecht
“In Deutschland sind alle Beschäftigten in der Bundesverwaltung durch § 1 Abs. 2 Bundesgleichstellungsgesetz (BGleiG) dazu verpflichtet die Gleichstellung von Frauen und Männern auch sprachlich zum Ausdruck zu bringen. Dies gilt sowohl für Rechts- und Verwaltungsvorschriften als auch für den dienstlichen Schriftverkehr. Die amtl. Begründung zu dieser Vorschrift weist allerdings daraufhin, dass in der Regel vollständig ausgeschriebene maskuline und feminine Personenbezeichnungen die Anforderungen einer geschlechtergerechten Sprache am besten erfüllen, neben weiteren Formulierungsmöglichkeiten und Sprachgestaltungen, die sich im Hinblick auf Verständlichkeit und Lesbarkeit gleichermaßen oder sogar noch besser anbieten.
Nicht geeignet ist allerdings die Sparschreibung von Paarformen, um der gesetzlichen Vorgabe zu entsprechen. Schreibungen mit einem großen I inmitten eines Wortes (KäuferInnen), mit Schrägstrich (Käufer/in) oder mit Klammer (Käufer(in) sind nicht präzise mündlich zitierbar und kommen deshalb für Vorschriftentexte nicht in Betracht.”
Sozialministerium Österreich – Gendergerechte Sprache
“Alle Texte des Ressorts, von Publikationen über Gesetzesentwürfe, bis hin zu Briefen und zur Sozialministerium-Website, sollen eine gleichberechtigte und wertschätzende Behandlung von Frauen und Männern in der Sprache und Bilddarstellung widerspiegeln.
Im Sozialministerium ist der geschlechtergerechte Sprachgebrauch im Gender
Mainstreaming-Leitfaden festgeschrieben, in dem geschlechtergerechte Formulierung in Form einfacher Beispiele dargestellt werden.
Sprache schafft Wirklichkeit, daher ist es wichtig, dass Texte lesbar und aussprechbar sind.
Damit werden Frauen und Männer gleichermaßen angesprochen:
Beispiel: Konsumentinnen und Konsumenten
Das „Binnen-I“ soll in Zukunft nicht mehr verwendet werden.
Ab sofort ist daher die vollständige Nennung der weiblichen und männlichen Form anzuwenden.”
Danke für ihr Verständnis.
mrkPxx