Ausstrahlung eines Beitrags mit KI-generiertem Video
Am 15. Februar 2026 sendete das ZDF in der Nachrichtensendung „heute journal“ einen Bericht über Maßnahmen der US-Einwanderungsbehörde ICE. Bestandteil dieses Beitrags war Videomaterial aus digitalen Quellen. Darunter befand sich ein Video, das nicht auf realen Aufnahmen beruhte, sondern mithilfe künstlicher Intelligenz erzeugt worden war. Dieses Material wurde in der Sendung jedoch nicht als künstlich erzeugt gekennzeichnet.
Die Sequenz zeigte eine Szene, in der vermeintliche Beamte eine Frau von ihren Kindern trennten. Die Darstellung wurde im Beitrag als Teil eines realen Geschehens präsentiert. Tatsächlich handelte es sich um ein synthetisch erzeugtes Video. Hinweise auf den künstlichen Ursprung waren unter anderem ein sichtbares Wasserzeichen der KI-Software sowie visuelle Unstimmigkeiten, etwa bei Uniformen und Kennzeichnungen.
Fehlende Kennzeichnung trotz bestehender Richtlinien
Das ZDF erklärte später, dass für das Video ursprünglich eine Kennzeichnung vorgesehen gewesen sei. Diese sei jedoch im Produktionsprozess nicht in die endgültige Fassung übernommen worden. Der Sender bestätigte, dass die fehlende Kennzeichnung nicht den journalistischen Standards entsprach und gegen die eigenen Richtlinien verstieß.
Die bestehenden Vorgaben sehen vor, dass künstlich erzeugte Inhalte klar gekennzeichnet und redaktionell eingeordnet werden müssen, um eine eindeutige Unterscheidung zwischen realem und synthetischem Material zu gewährleisten.
Zusätzliches Videomaterial aus falschem Kontext
Neben dem KI-generierten Video wurde ein weiteres Video verwendet, das zwar auf realen Aufnahmen beruhte, jedoch aus einem anderen zeitlichen und sachlichen Zusammenhang stammte. Die betreffende Szene zeigte einen Jugendlichen im Kontakt mit Polizeibeamten, hatte jedoch keinen Bezug zu den im Beitrag dargestellten Ereignissen.
Auch diese Verwendung wurde später als Fehler eingeordnet, da das Material nicht korrekt kontextualisiert worden war.
Reaktionen nach Bekanntwerden des Vorfalls
Nachdem auf die Unstimmigkeiten aufmerksam gemacht worden war, reagierte das ZDF mit einer Überarbeitung des Beitrags. Die betroffenen Sequenzen wurden aus der Mediathek entfernt und durch alternative Darstellungen ersetzt. Die korrigierte Version wurde mit einem Hinweis versehen, der auf die nachträglichen Änderungen aufmerksam machte.
Der Sender veröffentlichte zudem eine Stellungnahme, in der er einräumte, dass der Beitrag in dieser Form nicht hätte ausgestrahlt werden dürfen. Das ZDF entschuldigte sich bei den Zuschauern und bestätigte, dass die redaktionellen Standards nicht eingehalten worden waren.
Versagen der internen Prüf- und Verifikationsprozesse
Im Zuge der internen Aufarbeitung stellte der Sender fest, dass die vorgesehenen Prüfmechanismen nicht vollständig angewendet worden waren. Diese Verfahren dienen dazu, die Herkunft, Echtheit und den Kontext von Bildmaterial vor der Ausstrahlung zu überprüfen.
In diesem Fall hatte die redaktionelle Kontrolle nicht verhindert, dass sowohl ein künstlich erzeugtes Video ohne Kennzeichnung als auch reales Videomaterial in falschem Kontext gesendet wurden.
Personelle und organisatorische Konsequenzen
Als Folge des Vorfalls wurden personelle Maßnahmen ergriffen. Die für den Beitrag verantwortliche Korrespondentin wurde von ihrer Position abgezogen. Darüber hinaus kündigte das ZDF an, interne Abläufe und Kontrollverfahren zu überprüfen und gegebenenfalls anzupassen.
Der Sender erklärte, dass künstlich erzeugte Inhalte im journalistischen Kontext nur unter klarer Kennzeichnung verwendet werden dürfen und dass die Einhaltung dieser Vorgaben künftig verstärkt überwacht werden soll.
Bedeutung des Vorfalls für den Umgang mit KI im Journalismus
Der Vorfall verdeutlichte die Herausforderungen, die sich durch den Einsatz künstlicher Intelligenz im Medienbereich ergeben. Die zunehmende Verfügbarkeit synthetischer Bild- und Videoinhalte erfordert eine sorgfältige Prüfung durch Redaktionen, um deren Herkunft und Kontext korrekt einzuordnen.
Der Einsatz solcher Inhalte stellt besondere Anforderungen an journalistische Arbeitsprozesse, insbesondere im Hinblick auf Transparenz, Kennzeichnung und Verifikation.
Zusammenfassung der Kritik am ZDF
Ein zentraler Kritikpunkt war die Ausstrahlung eines künstlich erzeugten Videos ohne Kennzeichnung. Zuschauer konnten nicht erkennen, dass es sich um synthetisches Material handelte. Zusätzlich wurde reales Videomaterial verwendet, das nicht zu den dargestellten Ereignissen gehörte. Dies führte zu einer inhaltlich unzutreffenden Einordnung. Die internen Prüfverfahren, die die Herkunft und den Kontext von Bildmaterial sicherstellen sollen, wurden in diesem Fall nicht vollständig angewendet. Der Beitrag musste nachträglich überarbeitet, Sequenzen entfernt und korrigiert werden. Dies wurde als Hinweis auf Fehler im redaktionellen Ablauf gewertet. Die Abberufung einer verantwortlichen Korrespondentin wurde als Zeichen dafür gewertet, dass der Vorfall intern als schwerwiegend eingestuft wurde. Der Fall wurde als Beispiel für die Bedeutung klarer Kennzeichnung und sorgfältiger Prüfung von Bildmaterial im Zeitalter künstlicher Intelligenz gesehen.
