Brancheneinblicke

KI-Bilder bei Spiegel und ZDF: Warum redaktionelle Bildprüfung nicht mehr reicht

Das ZDF strahlte ein KI-Video mit sichtbarem Sora-Wasserzeichen aus, der Spiegel veröffentlichte manipulierte Iran-Fotos. Beide Fälle zeigen: Redaktionelle Prüfung allein reicht nicht mehr. Was bei beiden Vorfällen schiefging, warum redaktionelle Prüfprozesse versagen und welche Rolle forensische Verifikation spielen kann.

ByLumethic Team
7 min Lesezeit
Share

Innerhalb weniger Wochen haben zwei der bekanntesten Medienmarken Deutschlands KI-generierte oder KI-manipulierte Bilder veröffentlicht. Das ZDF zeigte ein vollständig synthetisches Video im heute journal, der Spiegel druckte manipulierte Fotos aus dem Iran. Beide Redaktionen entdeckten die Fälschungen nicht selbst. Beide reagierten erst, nachdem andere sie darauf hinwiesen. Die Vorfälle sind keine Einzelfälle, sondern Symptome eines strukturellen Problems: Redaktionelle Bildprüfung ist auf diese Art von Fälschung nicht ausgelegt.

3,6 Millionen Zuschauer, ein KI-Video

Am Sonntagabend des 15. Februar 2026 lief im heute journal ein Bericht der New Yorker Korrespondentin Nicola Albrecht über ICE-Einsätze gegen mutmaßliche illegale Einwanderer in den USA. In dem Beitrag war eine Szene zu sehen, in der eine Frau von Uniformierten abgeführt wird, während zwei Kinder verzweifelt weinen. Die Szene wirkte wie eine Dokumentaraufnahme. Sie war vollständig von OpenAIs Videogenerator Sora erzeugt, und das Wasserzeichen des Tools war im ausgestrahlten Material sichtbar.

Direkt danach folgte ein zweiter Fehler: Ein Clip, der als aktuelle ICE-Aktion beschriftet war, stammte in Wahrheit aus dem Jahr 2022 und zeigte einen Vorfall in Florida, der nichts mit Einwanderungsbehörden zu tun hatte. ZDF-Vizechefredakteurin Anne Gellinek nannte es einen „Doppelfehler". Rund 3,6 Millionen Menschen sahen den Beitrag.

Die Reaktion des ZDF kam stufenweise. Zunächst sprach der Sender von einem „technischen Fehler" bei der Übertragung des Beitrags. In den Tagen danach folgte eine öffentliche Entschuldigung durch Gellinek im heute journal selbst. Am 21. Februar wurde Korrespondentin Albrecht mit sofortiger Wirkung abberufen. Chefredakteurin Bettina Schausten erklärte, der Schaden durch die „Missachtung journalistischer Regeln" sei groß. Das ZDF kündigte verpflichtende Schulungen zum Umgang mit KI-Material, strengere Prüfverfahren für Fremdmaterial und eine verbindliche Quellenhierarchie an.

Die politische Reaktion war scharf. FDP-Vize Wolfgang Kubicki sprach von einem „Medienskandal". Die Debatte über die Glaubwürdigkeit des öffentlich-rechtlichen Rundfunks, die seit Jahren schwelt, bekam neues Feuer.

Die SalamPix-Lieferkette

Wenige Wochen später, Anfang März 2026, wurde ein zweiter Fall öffentlich. Der Spiegel, die Zeit, die Süddeutsche Zeitung, der Stern, die Deutsche Welle, der WDR, der Deutschlandfunk, die Welt, die taz und das ZDF selbst hatten Fotos aus dem Iran-Konflikt veröffentlicht, die ganz oder teilweise KI-generiert waren. Die Bilder stammten von der iranischen Agentur SalamPix.

Die niederländische Agentur ANP entdeckte das Problem zuerst und entfernte Anfang März rund 1.000 SalamPix-Bilder aus ihrer Datenbank. Das deutsche Forensik-Unternehmen Neuramancer analysierte fünf verdächtige Aufnahmen im Detail. Ein Foto eines angeblichen iranischen Flugzeugträgers zeigte unlogische Schatten und strukturelle Inkonsistenzen, die auf vollständige KI-Generierung hindeuteten. Ein Bild einer Explosion in Teheran vom 1. März enthielt in seinen Metadaten Spuren des KI-Bildgenerators Flux 2. Porträts des neuen Obersten Führers Mojtaba Khamenei neben seinem Vater Ali Khamenei wurden ebenfalls als wahrscheinlich KI-generiert eingestuft.

Die Bilder gelangten über eine Lieferkette in deutsche Redaktionen: SalamPix lieferte an die französische Agentur Abaca Press, die wiederum Material an dpa Picture Alliance, Imago und ddp weitergab. Von dort floss es in die Bildredaktionen der genannten Medien. Ein iranischer Fotograf, der mit SalamPix zusammenarbeitete, räumte ein, Material von einer Plattform der Iranischen Revolutionsgarden bezogen zu haben, ohne es auf Echtheit zu prüfen. Die deutschen Agenturen reagierten: dpa entfernte alle SalamPix-Inhalte, Imago sperrte den Lieferanten, und ddp versandte eine „Kill Notice" zur Löschung aller betroffenen Bilder.

Warum redaktionelle Prüfung versagt

Beide Fälle folgen demselben Muster. Erfahrene Journalisten und Bildredakteure sahen sich das Material an und ließen es durch. Beim ZDF war ein Sora-Wasserzeichen mit bloßem Auge erkennbar. Beim Spiegel fanden sich in den Metadaten eines Fotos Spuren eines KI-Bildgenerators. Trotzdem fiel nichts auf.

Das ist kein Versagen einzelner Personen. Es ist das Ergebnis eines Systems, das auf Vertrauen in Quellen und auf visuelle Einschätzung aufgebaut ist. Bildredakteure prüfen EXIF-Daten, führen Rückwärts-Bildsuchen durch und beurteilen Plausibilität. Diese Methoden stammen aus einer Zeit, in der Fälschungen handwerklich aufwendig und selten waren. Generative KI hat diese Voraussetzung aufgelöst. Ein mit Sora erzeugtes Video sieht auf den ersten Blick aus wie Handyaufnahmen. Ein mit Flux 2 generiertes Foto hat keine offensichtlichen Artefakte. EXIF-Daten lassen sich beliebig manipulieren.

Das Problem verschärft sich durch Agentur-Lieferketten. Wenn ein Bild von SalamPix über Abaca Press bei dpa landet und von dort an den Spiegel geht, prüft jede Stelle das Material nach ihren eigenen Standards. Aber keine dieser Stellen analysiert die Bilddaten forensisch. Jede verlässt sich darauf, dass die vorherige Instanz sorgfältig war. So wandert ein KI-generiertes Foto durch vier Hände, ohne dass jemand es als synthetisch erkennt.

Der Bundestag kennt das Problem

Dass diese Vorfälle nicht überraschend kommen, zeigt ein Bericht des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB). Im Dezember 2025 veröffentlichten die Autoren Octavia Madeira und Steffen Albrecht auf 62 Seiten eine Analyse der Gefahren, die von Deepfakes ausgehen. Der Bericht behandelt die technischen Grundlagen generativer Modelle, die gesellschaftlichen Auswirkungen von politischer Desinformation bis hin zu bildbasiertem sexuellem Missbrauch, und die rechtlichen Herausforderungen bei der Regulierung.

Ein zentrales Ergebnis: Deutschland hat keine explizite gesetzliche Regelung für Deepfakes. Ein Gesetzentwurf des Bundesrats zum „strafrechtlichen Schutz von Persönlichkeitsrechten vor Deepfakes" wurde im Juli 2025 erneut in den Bundestag eingebracht und liegt seither im Rechtsausschuss. Die Bundesrechtsanwaltskammer (BRAK) kritisiert den Entwurf als zu breit gefasst und warnt vor Überkriminalisierung. Eine Verabschiedung ist nicht absehbar.

Der TAB-Bericht empfiehlt eine Kombination aus technischen Lösungen, Medienkompetenz und rechtlichen Rahmenbedingungen. Die ZDF- und Spiegel-Vorfälle bestätigen, was die Autoren theoretisch beschrieben haben: Die Technik ist den bestehenden Schutzmaßnahmen voraus.

Was technische Verifikation anders macht

Beide Vorfälle wären vermeidbar gewesen, wenn die betroffenen Redaktionen eine technische Verifikation eingesetzt hätten, die über visuelle Prüfung und Metadaten-Inspektion hinausgeht.

Forensische RAW-Verifikation vergleicht ein veröffentlichtes JPEG mit der ursprünglichen Kameradatei. RAW-Dateien enthalten unverarbeitete Sensordaten, die sich nicht durch generative KI reproduzieren lassen. Wenn ein Fotograf zusammen mit seinem fertigen Bild die RAW-Datei vorlegt und eine Verifikationsplattform die Übereinstimmung kryptografisch bestätigt, ist die Frage der Authentizität beantwortet.

Im Fall des ZDF-Videos hätte keine RAW-Datei existiert, weil keine Kamera eine Aufnahme gemacht hat. Das Video war vollständig synthetisch. Jede Verifikationsanfrage wäre sofort gescheitert. Im Fall der SalamPix-Fotos hätte eine forensische Analyse der Bilddaten die Spuren generativer Modelle identifiziert, die Neuramancer nachträglich fand. Der Unterschied: Vor der Veröffentlichung statt danach.

Der C2PA-Standard bietet das technische Fundament für diesen Ansatz. Er ermöglicht ein manipulationssicheres Manifest, das Aufnahmedaten, Bearbeitungshistorie und Verifikationsergebnisse kryptografisch an ein Bild bindet. Kameras wie die Leica M11-P erzeugen solche Manifeste bereits bei der Aufnahme. Für die große Mehrheit professioneller Kameras, die diese Funktion noch nicht haben, setzt Lumethic genau hier an: Die Plattform verifiziert die Übereinstimmung zwischen RAW-Datei und Endbild durch forensische Analyse und fügt dem verifizierten JPEG ein C2PA-Manifest hinzu.

Für Nachrichtenredaktionen bedeutet das einen konkreten Workflow: Fotografen und Agenturen liefern zusammen mit jedem Bild einen Verifikationsbericht. Bildredakteure prüfen den Bericht in Sekunden. Das Ergebnis ist kein subjektives Urteil, sondern ein kryptografisch gesicherter Nachweis.

Was der AI Act regelt und was nicht

Die EU hat mit dem AI Act (Verordnung 2024/1689) bereits Transparenzpflichten für synthetische Inhalte geschaffen. Artikel 50 verlangt, dass KI-generierte Bilder, Videos und Audiodateien maschinenlesbar gekennzeichnet werden. Doch der AI Act regelt die Kennzeichnungspflicht auf Seiten der KI-Anbieter. Er gibt Redaktionen kein Werkzeug, um eingehende Bilder zu prüfen. Die Kennzeichnung setzt voraus, dass der Ersteller kooperiert. Im Fall von SalamPix, wo Material von einer Plattform der Revolutionsgarden in den Agentur-Kreislauf eingespeist wurde, ist genau das nicht der Fall.

Forensische Verifikation funktioniert anders. Sie setzt nicht auf die Kooperation des Erstellers, sondern auf die Physik der Kamerasensordaten. Ein echtes Foto hat eine RAW-Datei mit charakteristischen Rauschmustern, Farbinterpolation und Sensorartefakten. Ein KI-generiertes Bild hat das nicht. Diese Unterscheidung lässt sich automatisieren und in redaktionelle Workflows integrieren.

Nach den Vorfällen bei ZDF und Spiegel haben beide Häuser strengere interne Prozesse angekündigt. Ob das reicht, ist fraglich. Schulungen und Vier-Augen-Prinzipien setzen voraus, dass ein Mensch eine gute Fälschung erkennt. Die SalamPix-Bilder passierten vier Instanzen, ohne aufzufallen. Solange Redaktionen sich auf visuelle Einschätzung verlassen, bleibt das Risiko bestehen.

Weiterführend: Leitfaden zur redaktionellen Fotoverifikation | Bildherkunftsnachweis vs. KI-Erkennung | EU-KI-Regulierung und Content Provenance

Related Reading

#Fotoverifikation#Journalismus#Medienvertrauen#KI#Deepfakes#C2PA