YouTube setzt auf KI, um Podcaster zu gewinnen und Inhalte zu fördern
Bei der „Made on YouTube“-Veranstaltung in New York hat YouTube neue KI-Tools für Content-Ersteller vorgestellt, um seine Dominanz im Bereich Podcasts und Kurzvideos zu festigen. Ein zentrales Ziel ist es, Audio-Podcaster, die bisher wenig Erfahrung mit Video haben, leichter auf die Plattform zu bringen. Ab Anfang 2026 wird ein neues KI-Tool Audio-Podcasts in kurze, visuelle Clips von 30 bis 60 Sekunden umwandeln, die als YouTube Shorts oder Bestandteil langer Videos genutzt werden können. Dabei nutzt YouTube Google’s KI-Modell Veo, um passende Bilder zu generieren. Die Funktion ist zunächst auf ausgewählte US-Podcaster beschränkt, mit einer breiteren Einführung bis 2026 geplant. Zielgruppe sind Kreative, die keine Studioausrüstung haben oder sich durch mehrere Kameras unwohl fühlen. „Es ist ein großer Hürde, auf YouTube zu starten – vor allem, weil es eine Video-Plattform ist“, sagte T. Jay Fowler, Senior Director für Podcasts und Musik bei YouTube. „Diese Tools erleichtern den Einstieg.“ YouTube hat sich in den letzten Jahren als führender Anbieter für Podcasts etabliert, besonders dank Talk-Shows von Kreativen wie Rhett & Link, Theo Von und Joe Rogan. Laut einer Januarstudie von Edison Research bevorzugen etwa ein Drittel der US-Podcast-Abonnenten YouTube gegenüber anderen Plattformen. Auch die Nachfrage nach Video-Podcasts steigt: 42 Prozent der Erwachsenen in den USA gaben 2024 an, Video-Formate zu bevorzugen – ein Anstieg von 32 Prozent im Jahr 2022 (Morning Consult). Spotify, TikTok und sogar Netflix wollen in diesem Bereich mitmischen, doch YouTube profitiert von seiner etablierten Infrastruktur, dem Monetarisierungsmodell und der beliebten Shorts-Funktion. Zusätzlich zu den Podcast-Tools stellte YouTube eine Reihe neuer KI-Funktionen für Shorts vor. Mit einer angepassten Version von Veo 3, namens Veo 3 Fast, können Nutzer nun schneller und mit Ton visuelle Clips in 480p erstellen. Die Funktion ist zunächst in den USA, Großbritannien, Kanada, Australien und Neuseeland verfügbar, mit weiterer Ausweitung geplant. Kreative können jetzt auch Bewegung aus einem Video auf ein Foto übertragen – etwa einen stehenden Menschen zum Tanzen animieren – oder Stile wie Pop-Art oder Origami auf ihre Clips anwenden. Außerdem lassen sich Gegenstände oder Charaktere über Textbeschreibungen hinzufügen. Ein weiteres Highlight ist der neue „Speech to Song“-Remix-Tool, der Dialoge aus Videos in Musikstücke verwandelt. Dafür nutzt YouTube das KI-Modell Lyria 2, das Kreativen ermöglicht, den Sound mit Stilen wie „chill“, „tanzbar“ oder „lustig“ zu personalisieren. Die Funktion wird zunächst getestet und in den kommenden Wochen in den USA ausgeweitet. Zudem wird die Funktion „Edit with AI“ eingeführt, die Rohmaterial aus der Kamera in eine erste Version eines Shorts umwandelt. Dabei werden die besten Momente automatisch ausgewählt, Musik und Übergänge hinzugefügt, und es kann eine passende Voiceover-Textstimme in Englisch oder Hindi hinzugefügt werden. Die Funktion wird zunächst im YouTube Create-App und auf Shorts getestet und in ausgewählten Märkten erweitert. YouTube betont, dass die Plattform als „größter kreativer Spielplatz der Welt“ fungiert. Mit diesen neuen KI-Tools will das Unternehmen Kreativen helfen, schneller, einfacher und kreativer zu produzieren – und gleichzeitig die Reichweite von Podcasts und Shorts zu steigern. Aktuell verbringen Nutzer laut einer Juli-2025-Zählung mehr als 100 Millionen Stunden täglich mit Podcasts auf YouTube, wobei über 30 Prozent der Stunden mit Livestreams oder Premieren beginnen.
