Auch auf Googles Videoplattform YouTube spielt die Künstliche Intelligenz mittlerweile eine große Rolle, denn die „neue“ Technologie berührt praktisch alle Bereiche der Aktivitäten – natürlich auch die YouTuber und deren Inhalte. Aus diesem Grund hat man jetzt einen neuen „Ansatz für KI-Innovationen mit Verantwortung“ veröffentlicht und dabei die Rahmenbedingungen aufgezeigt, wie man mit KI-Videos umgehen möchte.
In puncto Videoerkennung, Suchfunktion, automatische Transkription, Kommentarbewertungen und einigem mehr setzt YouTube schon seit vielen Jahren auf die Künstliche Intelligenz, doch erst jetzt spielt die generative KI eine größere Rolle. Im vergangenen Jahr hat man viele neue KI-Features angekündigt, mit denen die Creator Videoideen sammeln, Videos erstellen, Videos verbessern und den gesamten Alltag auf der Videoplattform praktischer gestalten können.
Doch KI-Videos werden (noch) nicht bei YouTube erstellt, sondern mit anderen Tools und nur über YouTube verbreitet. Man möchte diese Videos zwar nicht grundlegend anders behandeln, aber dennoch die Zuschauer darüber informieren, dass ein Video oder zumindest ein Teil davon per KI erstellt wurde. Daher hat man den neuen „Ansatz für KI-Innovationen mit Verantwortung“ veröffentlicht. Darin heißt es unter anderem, dass Videos, die vollständig per KI erstellt oder umfangreich bearbeitet wurden, gekennzeichnet werden müssen.
Wir sind überzeugt, dass es in unser aller Interesse ist, ein gesundes Ökosystem an Informationen auf YouTube aufrechtzuerhalten. KI ermöglicht neue Formen des Storytellings und des kreativen Ausdrucks. Sie kann aber auch genutzt werden, um Inhalte zu erstellen, die das Potenzial haben, Zuschauer:innen in die Irre zu führen – insbesondere, wenn sie nicht wissen, dass das Video manipuliert oder synthetisch erzeugt wurde.
Aus diesem Grund führen wir uUpdates ein, mit denen Zuschauer:innen informiert werden, wenn Inhalte durch KI generiert wurden. Creator:innen müssen offenlegen, wenn sie manipulierte oder synthetische Inhalte erstellt haben, die realistisch wirken.
[…]
Wir haben zwei Möglichkeiten, Zuschauer:innen über manipulierte oder synthetische Inhalte zu informieren. Der Videobeschreibung wird ein neues Label hinzugefügt, um zu kennzeichnen, dass Inhalte digital verändert oder generiert wurden. Bei bestimmten Inhalten zu sensiblen Themen fügen wir dem Videoplayer ein noch besser sichtbares Label hinzu.
So werden KI-Videos definiert
Das kann z.B. ein KI-generiertes Video sein, in dem ein Ereignis realistisch dargestellt wird, das aber nie stattgefunden hat. Oder Inhalte, die eine Person zeigen, die etwas sagt oder tut, das sie nicht tatsächlich gesagt oder getan hat.
Das ist besonders wichtig, wenn es um sensible Themen geht, wie Wahlen, aktuelle Konflikte oder Gesundheitskrisen oder öffentliche Amtsträger. Wenn Creator:innen sich regelmäßig entscheiden, diese Informationen nicht offenzulegen, kann dies Konsequenzen haben. YouTube kann z.B. deren Inhalte entfernen oder sie vom YouTube-Partnerprogramm ausschließen.
Nicht alle KI-Inhalte sind erlaubt
In einigen Bereichen reichen Label zum Schutz jedoch nicht aus. Deshalb werden einige synthetische Medien, die gegen unsere Community-Richtlinien verstoßen, von unserer Plattform entfernt – unabhängig davon, ob sie mit einem Label versehen sind. Beispielsweise kann ein synthetisch erstelltes Video mit realistischen Gewaltdarstellungen auch entfernt werden, wenn es das Ziel hat, Zuschauer:innen zu schocken.
» Alle Infos und FAQ zu den KI-Inhalten