Das ZDF hat sich für einen Fehler in der Nachrichtensendung „Heute-Journal“ entschuldigt, der durch die Verwendung von nicht gekennzeichnetem KI-generierten Bildmaterial entstanden ist.
Berlin, 17.02.2026 / 17:01
In einem Beitrag über die Abschiebung von Minderjährigen in den USA, der am 15. Februar ausgestrahlt wurde, wurden KI-generierte Bilder ohne entsprechende Kennzeichnung gezeigt. Der Sender gab an, dass auch eine weitere Szene, in der ein Kind abgeführt wird, zwar echt ist, jedoch aus einem anderen Kontext aus dem Jahr 2022 stammt.
Fehlerhafte Berichterstattung und Korrekturmaßnahmen
Anne Gellinek, die stellvertretende Chefredakteurin und Leiterin der Aktualität, äußerte, dass der Beitrag nicht den Standards des ZDF entsprochen habe und in dieser Form nicht hätte gesendet werden dürfen. Aus diesem Grund wurde der Beitrag von allen Plattformen entfernt, und es wird sowohl auf „ZDFheute“ als auch im „Heute-Journal“ eine korrigierende Berichterstattung erfolgen. Jetzt: Anschlag auf Stromnetz führt zu massiven Ausfällen in Berlin
In der ZDF-Mediathek war zwischenzeitlich eine überarbeitete Version des Beitrags verfügbar, die den Hinweis enthielt: „Video aus redaktionellen Gründen nachträglich geändert“. Der Sender bestätigte, dass der Fehler behoben und das Video entsprechend angepasst wurde. In den KI-Grundsätzen des ZDF ist festgelegt, dass KI-generiertes Bildmaterial transparent gekennzeichnet werden muss.
Zusätzliche Inhalte und deren Kontext
In der ursprünglichen Fassung des Beitrags war auch eine Sequenz zu sehen, in der eine Frau und zwei Kinder von Einsatzkräften auf einer Straße abgeführt werden. Diese Sequenz, die KI-generiertes Bildmaterial darstellt, wurde in der neuen Version entfernt.
Darüber hinaus zeigte die ursprüngliche Version ein weiteres Video, das die Festnahme eines zehnjährigen Jungen im US-Bundesstaat Florida dokumentierte. Dieser Vorfall ereignete sich laut Recherchen des dpa-Faktencheck-Teams im Jahr 2022 im Zusammenhang mit einer angedrohten Gewalttat an einer Schule. Auch diese Aufnahmen wurden in der überarbeiteten Fassung nicht mehr gezeigt. Stattdessen kamen andere Bewegtbilder und Standbilder zum Einsatz, und der Sprechertext wurde angepasst.
Herausforderungen durch KI-generierte Inhalte
Auf die Frage, ob der Redaktion zum Zeitpunkt der Ausstrahlung bekannt war, dass es sich bei den verwendeten Bildern um KI-generiertes Material handelte, gab der Sender zunächst keine Stellungnahme ab.
Die Erkennung von KI-generierten Videos wird durch neue technische Möglichkeiten zunehmend schwieriger. Journalisten tragen daher die Verantwortung, sogenannte Deepfake-Inhalte zu identifizieren und kritisch auf mögliche Fehler, Verzerrungen oder Manipulationen zu prüfen. Sie müssen zudem die Entstehung und Verwendung solcher Inhalte transparent machen.
Unterstützung erhalten sie durch verschiedene Online-Werkzeuge, die teilweise selbst KI nutzen. Beispielsweise setzt die Polizei in Rheinland-Pfalz einen sogenannten „Deepfake Detector“ ein, der darauf spezialisiert ist, manipulierte Medieninhalte wie Bilder, Videos oder Audioaufnahmen zu identifizieren.
Reaktionen auf den Vorfall
Nathanael Liminski, Medienminister von Nordrhein-Westfalen und Mitglied im ZDF-Fernsehrat, bezeichnete den Vorfall als „No-Go“. Er betonte, dass der öffentlich-rechtliche Rundfunk den Auftrag habe, durch verlässliche und ausgewogene Informationen zur Meinungsbildung beizutragen. Die Art und Weise, wie dieser Beitrag gestaltet wurde, untergrabe dieses Ziel. Anstatt Desinformation und Deepfakes zu entlarven, werde auf Bildmaterial aus sachfremden Zusammenhängen sowie auf KI-generierte Fakebilder zurückgegriffen.
„`
Bildquelle: ai-generated