YouTube: KI-generierte Videos müssen gekennzeichnet werden; so will man in Zukunft mit KI-Inhalten umgehen
Auch auf Googles Videoplattform YouTube spielt die Künstliche Intelligenz mittlerweile eine große Rolle, denn die „neue“ Technologie berührt praktisch alle Bereiche der Aktivitäten. Aus diesem Grund hat man jetzt einen neuen „Ansatz für KI-Innovationen mit Verantwortung“ veröffentlicht und dabei die Rahmenbedingungen aufgezeigt, wie man mit KI-Videos umgehen möchte.
In puncto Videoerkennung, Suchfunktion, automatische Transkription, Kommentarbewertungen und einigem mehr setzt YouTube schon seit vielen Jahren auf die Künstliche Intelligenz, doch erst jetzt spielt die generative KI eine größere Rolle. Vor wenigen Wochen hat YouTube viele neue KI-Features angekündigt, mit denen die Creator Videoideen sammeln, Videos erstellen, Videos verbessern und den gesamten Alltag auf der Videoplattform praktischer gestalten können.
Doch KI-Videos werden (noch) nicht bei YouTube erstellt, sondern mit anderen Tools und nur über YouTube verbreitet – das ist auch heute längst der Fall. Man möchte diese Videos zwar nicht grundlegend anders behandeln, aber dennoch die Zuschauer darüber informieren, dass ein Video per KI erstellt wurde. Daher hat man nun den neuen „Ansatz für KI-Innovationen mit Verantwortung“ veröffentlicht. Darin heißt es unter anderem, dass Videos, die vollständig per KI erstellt oder umfangreich bearbeitet wurden, gekennzeichnet werden müssen.
Wir sind überzeugt, dass es in unser aller Interesse ist, ein gesundes Ökosystem an Informationen auf YouTube aufrechtzuerhalten. KI ermöglicht neue Formen des Storytellings und des kreativen Ausdrucks. Sie kann aber auch genutzt werden, um Inhalte zu erstellen, die das Potenzial haben, Zuschauer:innen in die Irre zu führen – insbesondere, wenn sie nicht wissen, dass das Video manipuliert oder synthetisch erzeugt wurde.
Aus diesem Grund führen wir in den kommenden Monaten Updates ein, mit denen Zuschauer:innen informiert werden, wenn Inhalte durch KI generiert wurden. Creator:innen müssen in Zukunft offenlegen, wenn sie manipulierte oder synthetische Inhalte erstellt haben, die realistisch wirken.
[…]
Wir haben zwei Möglichkeiten, Zuschauer:innen über manipulierte oder synthetische Inhalte zu informieren. Der Videobeschreibung wird ein neues Label hinzugefügt, um zu kennzeichnen, dass Inhalte digital verändert oder generiert wurden. Bei bestimmten Inhalten zu sensiblen Themen fügen wir dem Videoplayer ein noch besser sichtbares Label hinzu.
So werden KI-Videos definiert
Das kann z.B. ein KI-generiertes Video sein, in dem ein Ereignis realistisch dargestellt wird, das aber nie stattgefunden hat. Oder Inhalte, die eine Person zeigen, die etwas sagt oder tut, das sie nicht tatsächlich gesagt oder getan hat.
Das ist besonders wichtig, wenn es um sensible Themen geht, wie Wahlen, aktuelle Konflikte oder Gesundheitskrisen oder öffentliche Amtsträger. Wenn Creator:innen sich regelmäßig entscheiden, diese Informationen nicht offenzulegen, kann dies Konsequenzen haben. YouTube kann z.B. deren Inhalte entfernen oder sie vom YouTube-Partnerprogramm ausschließen.
Nicht alle KI-Inhalte sind erlaubt
In einigen Bereichen reichen Label zum Schutz jedoch nicht aus. Deshalb werden einige synthetische Medien, die gegen unsere Community-Richtlinien verstoßen, von unserer Plattform entfernt – unabhängig davon, ob sie mit einem Label versehen sind. Beispielsweise kann ein synthetisch erstelltes Video mit realistischen Gewaltdarstellungen auch entfernt werden, wenn es das Ziel hat, Zuschauer:innen zu schocken.
In Zukunft und mit Einführung dieser neuen Updates werden Inhalte und Funktionen, die mit den generativen KI-Produkten von YouTube erstellt wurden, deutlich als KI-generiert gekennzeichnet.
GoogleWatchBlog bei Google News abonnieren | GoogleWatchBlog-Newsletter