Künstliche Intelligenz ist in der Film- und Serienwelt längst keine Zukunftsvision mehr – wir haben hier im Blog auch schon an mehreren Stellen dazu berichtet – und sie auch selbst genutzt, für unsere Rätsel im sAWEntskalender zum Beispiel, oder unsere legendäre ZappGPT-Rubrik wenn wir mit der KI diskutieren, wie das Serienende von verschiedenen Serien alternativ aussehen könnte. Auch eine Umfrage dazu, ob ChatGPT & Co. in Zukunft komplette Serien-Folgen schreiben sollen, haben wir gestartet. Und ja, auch einen April-Scherz haben wir uns erlaubt, in dem wir behauptet haben, KI hätte eine „Black Mirror“-Folge geschrieben. 2023 noch ein Scherz, aber vermutlich schon bald Realität…

Erstellt mit KI
… denn es geht noch mehr: Sie schreibt Pitch-Texte, generiert Bilder, synchronisiert Stimmen, schneidet Trailer und fasst ganze Staffeln zusammen. Was vor wenigen Jahren noch nach Science-Fiction klang, ist heute Teil realer Produktionsprozesse. Und doch wirken viele dieser frühen Gehversuche, als hätten Studios, Plattformen und Marken den technologischen Turbo gezündet, ohne sich vorher zu fragen, wohin die Reise eigentlich gehen soll.
Gerade in den vergangenen zwei Jahren häufen sich Beispiele, in denen der KI-Einsatz zwar Aufmerksamkeit erzeugte – aber nicht immer die gewünschte. Sie zeigen ein Spannungsfeld zwischen Effizienz, Kreativität, Authentizität und handwerklicher Sorgfalt. Ich haben in der letzten Zeit verschiedene Beispiele gesammelt, da ich sie auch in Kursen gerne als Beispiele dafür einsetze, wo es derzeit (noch) Grenzen von KI gibt. Hier kommt der Überblick.
Fallout: Wenn die KI die eigene Serie nicht versteht
Amazon Prime Video hat im Herbst 2025 ein neues Feature getestet: KI-generierte Video-Recaps, die Serien zusammenfassen sollten – prominent ausprobiert an der ersten Staffel von „Fallout“. Die Idee: Vor Staffel 2 schauen Fans einen kurzen Rückblick, der automatisch aus Material der ersten Staffel generiert wird, inklusive KI‑Off-Stimme.
Was schiefging: Die KI verortete die Flashbacks des Ghouls in den 1950er‑Jahren, obwohl sie in der Serienchronologie 2077 spielen – offenbar ließ sie sich vom Retro-Look der Fallout‑Welt täuschen, wie es Cassie Mammone bei GamePro beschreibt. Zentrale Entscheidungen wurden falsch wiedergegeben; Fans meldeten in Foren und auf Reddit zusätzlich falsch identifizierte Figuren und verdrehte Handlungsstränge.
So wurde es bewertet: Amazon bewarb das Feature zunächst als „bahnbrechende Anwendung generativer KI im Streaming“, die das Nutzererlebnis verbessern solle – Timothy Beck Werth dokumentiert das prima bei Mashable. Fans und Medien sprachen dagegen von einem „PR‑Desaster“ und einem weiteren Beispiel dafür, dass generative KI komplexe serielles Erzählen eben nicht wirklich versteht.
Nach massiver Kritik zog Amazon die Recaps für „Fallout“ und andere Serien wieder als offizielles Release zurück, obwohl das Video noch erreichbar ist. „Die Technologie sollte das Seherlebnis verbessern – stattdessen hat sie Vertrauen zerstört“, kommentierte ein Branchenanalyst sinngemäß.
Fallout-Marketing: Wenn selbst das Poster stolpert
Schon in der frühen Marketingphase für „Fallout“ experimentierte Amazon mit KI-generierten Visuals, darunter ein Comic-artiges Plakatmotiv, das vor der Veröffentlichung der Serie online kursierte. Das Bild setzte auf stilisierte Vault‑Ästhetik und sollte den Retro-Future-Ton der Marke treffen.
Was schiefging: Nutzer machten in sozialen Medien rasch auf anatomische Fehler, unlogische Details im Hintergrund und unleserliche Schriftzüge aufmerksam – typische Artefakte früher generativer Bildmodelle. Die Kritik, aufgegriffen unter anderem von Tillmann Bier bei GameStar, fiel besonders scharf aus, weil hier ausgerechnet eine Marke mit reicher visueller Lore mit „billiger KI-Ästhetik“ beworben wurde.
So wurde es bewertet: Kritiker und Fans sahen das Motiv als Beispiel für „Prompt-Design ohne Art Direction“ an. Paul Tassi baute für Forbes das Plakat kurzerhand nach und kritisierte sinngemäß, wenn man eine ikonische Marke wie Fallout mit generischem KI‑Look bewerbe, wirke das eher so, als hätte man die eigene Fanbase nicht verstanden. Für viele Fans war das Poster rückblickend ein früher Warnhinweis darauf, wie unbedacht Amazon später auch bei den Video‑Recaps mit KI umgehen würde.
Murderesses: KI-Synchro als Stimmungskiller
Die polnische Crime-Serie „Murderesses“ lief Anfang 2025 bei MagentaTV – in einer deutschen Fassung, deren Synchronisation durch das israelische Start-up Deepdub per KI erzeugt worden war. Deepdub ist darauf spezialisiert, Stimmen automatisch in andere Sprachen zu übertragen, inklusive Stimmfarbe und Lippenbewegung.
Was schiefging: Zuschauer beschwerten sich schon nach kurzer Zeit über monotone, leblos wirkende Stimmen ohne natürliche Betonung. Emotionale Szenen klangen „wie vorgelesen“, Dialogpausen wirkten unnatürlich, und in sozialen Medien war von einer „Roboter-Synchro“ die Rede. Daniel Herbig geht bei heise ausführlich darauf ein.
So wurde es bewertet: Das Medienmagazin DWDL berichtete, MagentaTV habe die Serie bereits nach zwei Tagen wieder aus dem Programm genommen, nachdem klar wurde, dass die deutsche Fassung per KI erstellt worden war. Die Serie ist damit nicht an der Geschichte gescheitert, sondern an einer Technik, die Dialoge wie Beta‑Software klingen lässt. Für André Westphal von 4kfilme.de war „Murderesses“ ein Präzedenzfall, wie schnell Sender Reputation riskieren, wenn sie an der empfindlichen Schnittstelle zwischen Stimme, Schauspiel und Sprache sparen.
Coca-Cola: KI gegen die eigene Weihnachts-Nostalgie
Coca-Cola steht wie kaum eine andere Marke für ikonische Weihnachtswerbung – rote Trucks, Santa, große Emotionen. 2025 entschied sich der Konzern, den Spot stark mit generativer KI zu produzieren: Bilder, Animationen und Teile der Story wurden mit KI-Tools realisiert, in Kooperation mit spezialisierten Studios.
Was schiefging: Statt menschlicher Figuren dominieren KI-animierte Tiere wie Eisbären, Pandas und Faultiere, deren Look zwischen realistisch und Cartoon schwankt – viele Zuschauer empfanden das als inkonsistent und „uncanny“. In verschiedenen Analysen, zum Beispiel bei Patrecia Meliana von ContentGrip oder bei Joe Foley im CB CreativeBlog zeigte sich ein klarer Stimmungswechsel: Der Anteil positiver Reaktionen sank von rund 24 auf nur noch etwa 10 Prozent, während negative Meinungen leicht auf rund ein Drittel anstiegen. Justus Becker geht darauf bei AlphaAvenue ein: „KI ermöglicht neue Wege in der Werbung, nimmt aber ein Stück der alten Magie. Für viele Zuschauer ist es schwer, sich mit den neuen, computergenerierten Spots zu identifizieren. Sie vermissen die Handschrift echter Filmschaffender und die kleinen Imperfektionen, die eine Werbung besonders machen.“
So wurde es bewertet: Kritiker warfen Coca-Cola vor, an der menschlichen Wärme der Marke zu sparen und den ikonischen Nostalgie-Faktor einer KI-Spielerei zu opfern, getreu dem Motto: „Die Marke, die uns jahrzehntelang gezeigt hat, wie sich Weihnachten anfühlt, zeigt uns jetzt, wie sich ein Rendering anfühlt.“ Oder auch: „Ein Jahr KI-Entwicklung später sieht es immer noch furchtbar aus“, dokumentiert Der Spiegel einen Kommentar in der Berichterstattung über den Spot von 2024, bei dem auch schon KI fleißig mitgeholfen hat. Ein anderer Nutzer kommentierte: »Erinnert ihr euch noch daran, als sie echte Trickfilmzeichner dafür bezahlten, Werbespots mit Herz zu produzieren? Jetzt ist es seelenlose KI.« Mehr dazu gibt’s auch bei DWDL.
Coca-Cola verteidigte sich schnell: „Letztes Jahr wurde die Handwerkskunst kritisiert. Aber dieses Jahr ist die Handwerkskunst zehnmal besser“, erklärte Pratik Thakar, Global Vice President und Leiter der generativen KI bei Coca-Cola, dem Hollywood Reporter. „Es wird immer Leute geben, die Kritik üben – wir können nicht alle zu 100 Prozent zufriedenstellen.“ Er fügte hinzu: „Aber wenn die Mehrheit der Verbraucher es positiv sieht, lohnt es sich, weiterzumachen.“
Prinzen Rolle: Wenn der Kultkeks „zu künstlich“ wirkt
Zum 70‑jährigen Jubiläum der Prinzen Rolle wollte Griesson – de Beukelaer 2025 mit einem KI-generierten Spot Innovationsfreude zeigen. Die Kampagne entstand gemeinsam mit der Agentur Taste; sämtliche Szenen, etwa ein Mädchen auf dem Fahrrad mit Keksdose, wurden von KI erzeugt.

Erzeugt mit KI
Was schiefging: Viele Zuschauer empfanden die Bilder als „befremdlich“ und „gruselig“ – Gesichter und Bewegungen hatten den typischen leicht verzerrten KI-Look, der besonders in Nahaufnahmen auffällt. Zuschauer:innen fehlte emotionale Nähe, die durch „billig wirkende KI-Ästhetik“ ersetzt wurde.
So wurde es bewertet: Der Spot ist zu so etwas wie einem Lehrbuchfall dafür geworden, wie stark Markenwerte leiden, wenn vertraute Alltagsmomente plötzlich synthetisch wirken – Jana Stäbener hat das in der Frankfurter Rundschau prima dokumentiert. Nach dem Shitstorm wurde der Spot von YouTube gelöscht, mit einer abenteuerlichen Begründung, wie Marco Saal bei Horizont schreibt – offiziell, weil es sich um eine „veraltete Version“ gehandelt habe; eine überarbeitete Fassung ist bislang nicht öffentlich.
Paramounts „Novocaine“: Der Roboter im Trailer
Paramount veröffentlichte im März einen Trailer bzw. Social-Media-Clip zum Film „Novocaine“, in dem KI nicht nur im Skripting, sondern auch für die Voiceover-Stimme eingesetzt wurde. Die Idee: Schlanke Promo-Produktion mit generativem Text und synthetischer Erzählerstimme.
Was schiefging: Die Roboterstimme bot kaum Nuancen, wirkte flach und emotional distanziert – genau das Gegenteil dessen, was klassische Trailerstimmen ausmacht. Das KI‑Scripting sorgte für austauschbare Formulierungen, die Fans als generisch und „wie aus einem Demo-Video“ beschrieben.
So wurde es bewertet: Medien wie DWDL beschreiben Reaktionen, nach denen der Clip vor allem wegen der schlechten KI‑Synchro Schlagzeilen gemacht habe – also nicht wegen des Films, sondern wegen der Technik dahinter. Kommentatoren wie Ille Smolanki bei TweakTown sprachen von Faulheit und Überabhängigkeit von automatisierten Lösungen im Marketing; statt Vorfreude habe der Clip eher Zweifel an der Wertschätzung menschlicher Sprecher ausgelöst. Klar ist auch: Solche Experimente können die Sorge vor Jobverlusten bei Sprecher:innen befeuern und zugleich die Qualität der Werbemittel gefährden.
„kudlmudl.ki“: Trash als KI-Satire
Mit „kudlmudl.ki“ startete Puls 4 (bzw. die ProSiebenSat.1‑Puls4‑Gruppe) 2025 ein Kurzformat, das als erstes rein KI-generiertes Satireformat im österreichischen Fernsehen beworben wurde. Die Clips laufen im linearen Programm und bei Joyn und sollen Social-Media‑Ästhetik, Memes und KI‑Trends parodieren.

Erzeugt mit KI
Was schiefging: Schon in der ersten Folge fielen deformierte Gesichter, unnatürliche Bewegungen und fehlerhafte Details auf – etwa eine Frau, die durch einen Tisch geht, oder Hände und Finger in unrealistischen Konstellationen. Schriftzüge verschmieren zu Kauderwelsch, Oberflächen wirken plastikhaft, und die typische KI‑Optik mit glatter Haut und seltsamen Proportionen dominiert.
So wurde es bewertet: Marie Gundlach nennt es in der Süddeutschen Zeitung „Trash allerhöchster Güteklasse“ und urteilte, das einzig Gute an Folge eins sei die Kürze, „das Schlechte: alles andere“. DWDL schrieb, das Ergebnis sei „noch wenig überzeugend“ und man sehe der schnell geschnittenen Sketch-Comedy die KI-Machart in jeder Sekunde an.
Puls 4 selbst betont, man verstehe „kudlmudl.ki“ als „Initialzündung für eine ganz neue Art von Content“ und als „offene Plattform für unterhaltsamen KI‑Content aus Österreich“, bei der „Prompting-Nerds herzlich eingeladen“ seien, Clips beizusteuern; alle Schritte stünden jedoch unter redaktioneller Kontrolle.
Mein persönlicher Blick: Wo KI in der Bewegtbildwelt wirklich hingehört
Natürlich sind die Verlockungen groß, KI einzusetzen – wir hanen es ja selbst ausprobiert, siehe oben. Und es wird immer einfacher, selbst zum Produzenten zu werden.
Was man aber immer mitdenken muss – wie unterscheiden wir, was real ist, was künstlich. Da spielen natürlich Themen wie Authentizität, Kennzeichnungspflicht und Wahrnehmung mit hinein. Denn man kann es auch von der anderen Seite sehen – nicht alles ist Fake. Was sagt uns das?
Aus medienjournalistischer Sicht lässt sich aus diesen Fällen ein roter Faden ziehen: KI gerät immer dann in die Kritik, wenn sie dort eingesetzt wird, wo Authentizität, Identifikation und künstlerische Handschrift den Kern des Produkts ausmachen – bei Stimmen, vertrauten Markenbildern, komplexen Storywelten oder ikonischen Ritualen wie der Coke-Weihnachtswerbung. Gleichzeitig zeigt die Tool-Landschaft, dass KI für Rohschnitt, Rotoscoping, Untertitel, Versionierung oder Previsualization längst enorme Produktivitätsgewinne bringt und es kleinen Teams ermöglicht, Trailer und Kurzfilme in einer Bildqualität zu produzieren, die vor wenigen Jahren Studios vorbehalten war.
Genau darin liegt das Spannungsfeld, das bereits die Autorenstreiks in Hollywood 2023 geprägt hat: Die Writers Guild of America setzte durch, dass KI nicht als Autorin gilt, keine Drehbücher „schreibt“ und nicht als „Source Material“ kreditiert wird – mit dem Ziel, KI als Werkzeug für Menschen zu definieren statt als Ersatz. Übertragen auf Serien, Werbung und Trailer heißt das: KI sollte Routinearbeit abnehmen, Varianten generieren, Material sortieren – aber dort Halt machen, wo Figurenpsychologie, Dialog und Markenidentität verhandelt werden.
Ein weiterer zentraler Punkt ist Medienkompetenz: Wenn generative Systeme Clips, Stimmen und Gesichter beliebig verändern können, muss schon in der Schule gelernt werden, Quellen einzuordnen, Deepfakes zu erkennen und zwischen authentischem Material und synthetischen Inhalten zu unterscheiden. Der EU AI Act sieht Transparenzpflichten für synthetische Audio-, Bild- und Videoinhalte vor; Deepfakes und KI-Texte mit öffentlicher Relevanz müssen klar als künstlich erzeugt gekennzeichnet werden. Unternehmen wie Adobe gehen mit ihrer Content Authenticity Initiative und „Content Credentials“ voran, indem sie Bearbeitungsschritte und KI‑Einsatz direkt in Dateien einbetten und so eine technische Grundlage für überprüfbare Authentizität schaffen.
Für Studios, Sender und Marken lautet die eigentliche Aufgabe damit: klar zu definieren, wofür KI im Produktionsprozess eingesetzt wird – und wofür ausdrücklich nicht. Wenn KI hilft, Produktionshürden zu senken und neue Formate zu ermöglichen, ohne das Publikum über ihre Rolle im Dunkeln zu lassen, kann sie zu einem mächtigen Verbündeten kreativer Teams werden. Wenn sie hingegen als Abkürzung genutzt wird, um an der Oberfläche von Authentizität, Stimme und Vertrauen zu sparen, wird sie weiterhin genau die Art von Shitstorms produzieren, die wir bisher schon erlebt haben.
Bilder: amazon prime video | Erzeugt mit KI





































Kommentiere