Dieser Fehler im "heute journal" sowie die haarsträubende Aufarbeitung werden das ZDF wohl noch eine ganze Weile beschäftigen. Am Sonntag sendete man im Rahmen des "heute journals" einen Beitrag über die umstrittenen ICE-Einsätze in den USA. Dabei kam auch Bildmaterial zum Einsatz, das von einer KI erstellt wurde. Als Kritik daran laut wurde, versuchte man sich in Mainz gleich mehrfach aus der Verantwortung zu stehlen. Zunächst hieß es, durch einen technischen Fehler sei den Kennzeichnung des KI-Materials verloren gegangen. 

Nur: Das hätte auch nichts besser gemacht. In dem kurzen Video waren eine Frau und zwei Kinder zu sehen, die abgeführt wurden. Das Problem war aber, dass das gar nicht echt war, sondern mithilfe von KI generiert. Deutlich wurde das durch ein Wasserzeichen von Sora - damit können täuschend echte KI-Videos erstellt werden. 

Unter anderem gegenüber der "Welt" und "Übermedien" erklärte ein ZDF-Sprecher kurz danach, dass man habe zeigen wollen, "dass sowohl mit echten als auch mit KI-generierten Bildern ein Klima der Angst erzeugt wird". Auch das erwies sich als schlicht unwahr, dafür musste man nur den Beitrag im "heute journal" gesehen haben. Darin ging es nicht um Angst durch KI-generierte Bilder, es ging um echte Einsätze von ICE. 

An einer zweiten Stelle nutzte das ZDF in dem Beitrag Videomaterial aus dem Jahr 2022 - dabei handelte es sich nicht um einen ICE-Einsatz, als ein solcher wurde es aber dargestellt. Das ZDF verbreitete am Sonntag im "heute journal" also gleich mehrfach Unwahrheiten - und war später nicht einmal in der Lage dazu, die Sache richtig zu stellen.

Klarstellung im "heute journal"

Am Dienstagmittag, hier waren bereits einige zweifelhafte Erklärungsversuche der Mainzer im Umlauf, verschickte der Sender schließlich eine Pressemitteilung. Darin entschuldigte man sich für die Fehler im "heute journal" - und ließ erneut Fragen offen. "Diese Sequenz hätte nach den Regeln des ZDF ohne Kennzeichnung und ohne Einordnung so nicht verwendet werden dürfen", erklärten die Mainzer zum KI-Video. Wie genau eine solche Einordnung hätte aussehen sollen, damit das Video aus ZDF-Sicht in Ordnung gewesen wäre, blieb dabei offen. 

Im "heute journal" am Dienstagabend hat das ZDF dann aber doch noch die Kurve bekommen und nicht nur die falsche Berichterstattung korrigiert, sondern auch die eigenen Erklärungsversuche abgeräumt, mit denen man Journalistinnen und Journalisten zuvor versucht hatte in die Irre zu führen. In dem Beitrag wurde klar gemacht, dass der Einsatz des KI-Videos gegen die geltenden KI-Regeln des Senders verstoßen hat. 

In den sich selbst auferlegten Grundsätzen zum Umgang mit Künstlicher Intelligenz hat das ZDF festgehalten: "Der Einsatz KI-generierter Bilder und Videos von Menschen, Ereignissen und politischen Zusammenhängen sind im Nachrichtenbereich nicht möglich". Ausnahme sei, wenn es in den Berichten dezidiert um KI-Fakes geht. Darum ging es am Sonntag im "heute journal" aber nicht, auch wenn Moderatorin Dunja Hayali in der Anmoderation des Beitrags entsprechende Fakes erwähnte. 

"Ein Doppelfehler, der schmerzt"

Während die Kommunikationsabteilung des ZDF am Dienstag stoisch auf die angeblich nur fehlende Kennzeichnung des KI-Materials verwies und damit völlig am Thema vorbeiargumentierte, zeigte man sich jetzt doch noch einsichtig. "Eine Kenntlichmachung hätte nicht gereicht", hieß es am Dienstagabend im Nachrichtenmagazin zum vielfach kritisierten Beitrag. Man habe für Bilder und Videos aus sozialen Medien eigentlich ein Prüf- und Verifikationsverfahren entwickelt. Dies sei in diesem Fall jedoch zu spät angewandt worden. 

Anne Gellinek, stellvertretende Chefredakteurin und Leiterin der Aktualität, die sich im Verlauf des Tages bereits via Pressemitteilung entschuldigte und erklärte, der Beitrag hätte in dieser Form "nicht gesendet werden dürfen", moderierte am Dienstagabend auch das "heute journal". Darin erklärte sie abschließend: "Ein Doppelfehler, den wir nun sorgfältig aufarbeiten und der besonders schmerzt, weil wir hier bei den ZDF-Nachrichten sehr viel Kraft investieren, um Ihnen geprüfte Informationen zu liefern. Das ist uns diesmal nicht gelungen. [...] Dieser Beitrag entsprach nicht unseren hohen Standards". 

Jetzt muss diese Erkenntnis nur noch überall im Sender durchsickern. Auf der Korrekturen-Seite des ZDF ist weiter die Rede davon, dass die KI-generierten Bilder hätten gekennzeichnet werden müssen. 

Mehr zum Thema