YouTube aktualisiert Richtlinien, um schadhafte AI-Inhalte zu reduzieren.
YouTube kann das künstliche Intelligenz-Müll-Problem nicht mehr ignorieren. Das Unternehmen plant, seine Richtlinien für das Partnerprogramm zu aktualisieren, um den schlimmsten Übeltätern das Geschäft zu verderben. Diese Änderungen sollen am 15. Juli in Kraft treten. Obwohl YouTube die Verbindung zu KI nicht explizit herstellt, ist der Zeitpunkt kein Zufall, da die Plattform zunehmend von automatisch generiertem Müll überschwemmt wird. YouTube, eine Tochtergesellschaft von Alphabet, hat in letzter Zeit zahlreiche Kanäle erlebt, die ausschließlich gefälschte und oft irreführende Videos produzieren. Diese Videos werden schnell und in großer Menge generiert, um von YouTube's Partnerprogramm zu profitieren. Im Juni wurde YouTube-CEO Neal Mohan stolz ein neues Tool präsentiert, das es ermöglicht, Shorts „von Grund auf neu“ zu generieren. Dieses Tool kann sowohl Video als auch Audio erstellen, was besonders ironisch ist, da die KI-Modelle, einschließlich Googles Veo 3, mit dem Inhalt von YouTubern trainiert wurden, ohne deren ausdrückliche Zustimmung. Google hat bei Google I/O 2025 mehrere neue Features zur Audiosynthese für Veo 3 vorgestellt. Die neuen Richtlinien sollen helfen, „massenproduzierten und wiederholenden“ Inhalt besser zu erkennen. Dazu gehören Videos mit KI-generierten Stimmen, die „keinen persönlichen Kommentar oder Erzählstil“ enthalten, sowie „Slideshow-Kompilationen“ mit „wiederverwendeten Clips“, „Reaktionen oder Zusammenfassungen ohne tiefgründige originale Einsichten“ und Inhalte in „höchst wiederholenden Formaten, insbesondere in Shorts“. Allerdings bleibt unklar, was genau unter „höchst wiederholenden Formaten“ fällt. Es ist durchaus möglich, dass viele dieser Müll-Kanäle immer noch durch die Ritzen schlüpfen. Gizmodo fragte YouTube nach einer Klärung, was unter „massenproduziert“ und „wiederholend“ zu verstehen sei. In einer E-Mail-Aussage erklärte YouTube, dass dies keine „neue Politik“ sei, sondern eine „kleine Aktualisierung“ bestehender Richtlinien, um Inhalt zu identifizieren, der bereits gegen die Regeln verstößt. Doch die Tatsache, dass sich diese Betrüger durch KI-generierte Müllvideos bereichern können, zeigt deutlich, dass Google einen zu laxen Umgang mit KI hat. Es gibt sogar wachsende Anzahl von Accounts, die schnelle Reichtum versprechen, indem sie zeigen, wie man KI-generierte Videos im Fließbandverfahren hochladen kann. Selbst wenn diese Müll-Kanäle ein wenig mehr Anstrengung in jedes Video investieren, um es weniger wie „Spam“ wirken zu lassen, bleibt die Qualität wahrscheinlich weit unter dem Durchschnitt. Google und YouTube möchten KI als Zukunftstechnologie fördern, aber das unvermeidliche Ergebnis ist eine Verschlechterung der Plattform für alle Beteiligten. Wie der Name schon sagt, rinnt Müll bergab, und Schöpfer und Zuschauer werden in der Morast schwimmen. Brancheinsider sehen die Situation kritisch. Sie betonen, dass KI-Technologien zweischneidig sind und dass YouTube und Google ihre Verantwortung ernster nehmen sollten. Die Plattformen müssen besser lernen, zwischen qualitativ hochwertigem und schlechtem Inhalt zu unterscheiden, um das Nutzererlebnis zu verbessern. Einige Experten gehen sogar so weit, YouTube vorzuwerfen, dass es durch seine lasche Haltung gegenüber KI-Inhalten die Standards seiner Plattform untergräbt. Google und YouTube sind sich der Herausforderungen bewusst, aber bislang reichen ihre Maßnahmen nicht aus, um das Problem wirksam zu bekämpfen.