KI-Fake zu spektakulärer Meldung:Leopard verletzt Chinesin: Echter Angriff, gefälschtes Foto
von Nils Metzger
In China hat ein Schneeleopard eine Touristin angefallen. Der Vorfall ist echt, ein Selfie mit dem Raubtier eine KI-Montage. Ein wachsendes Problem bei spektakulären Meldungen.
Angriff eines Schneeleoparden in China: Original (links) und vermeintliches Selfie (KI-Fake, rechts).
Quelle: ZDF/Screenshot: X / @DramaAlert, veröffentlicht am 02.02.26, Quelle: x.com/@DramaAlertEs war eine der spektakulären Meldungen der letzten Tage, die weltweit durchs Netz ging: Ein Schneeleopard fällt eine Touristin in der Region Xinjiang im Nordwesten Chinas an. Mit blutüberströmtem Gesicht wird sie von Helfern gerettet; ihr Helm verhinderte noch Schlimmeres. Es ist der ultimative Albtraum für Sportler in der freien Natur.
Doch die Geschichte verdeutlicht ebenfalls, wie leicht sich solche aufsehenerregenden Ereignisse eignen, um mit gefälschten Bildern noch mehr Reichweite zu generieren.
Nutzer in Sozialen Medien kommentieren hämisch
Was den tragischen und seltenen Vorfall zum viralen Hit in den Sozialen Medien und bei vielen Boulevardmedien machte: Direkt vor dem Angriff soll die Touristin ein Selfie mit dem Schneeleoparden gemacht haben.
Gefälschtes Selfie-Foto: Dieses Bild wurde von Unbekannten nachträglich hinzuerfunden. Es ist nicht echt. Details am Helm etwa stimmen nicht überein.
Quelle: Screenshot: X / @DramaAlert, veröffentlicht am 02.02.26, Quelle: x.com/@DramaAlertEine Aufnahme mit einer breit lächelnden Chinesin und einer lauernden Raubkatze, kaum mehr als einen Meter hinter ihr, wird auf vielen Plattformen von Facebook bis TikTok gepostet und erreicht dort Millionen Nutzer. Häufig kommentieren diese hämisch den Leichtsinn der Snowboarderin. "Sie ist das perfekte Beispiel, warum auf einer Packung Erdnüsse eine Warnung vor Nüssen stehen muss", schreibt ein Nutzer unter dem Artikel der britischen Boulevard-Plattform "Mirror".
Chinesische Behörden bestätigten den Vorfall, er soll sich bereits vor über einer Woche ereignet haben. Womöglich hat sich die Frau dem Tier tatsächlich genähert, anstatt sich in Sicherheit zu bringen, aber von einem Selfie ist dort nirgends die Rede.
Details am Helm passen nicht zum gefälschten Selfie-Bild
Und das kursierende Selfie stellt sich bei näherem Hinsehen als Fälschung heraus. Zwar kann man auf dem echten Video das Gesicht der Person nicht erkennen, aber der Helm, den sie dort trägt, ist nicht identisch mit dem auf dem viralen Fake-Foto, das unmittelbar vor dem Angriff entstanden sein soll. Es fehlt etwa das Hersteller-Logo an der Vorderseite. Andere Details wie die Farbe der Jacke stimmen jedoch. Es wurde womöglich Wert darauf gelegt, die Fälschung nicht zu offensichtlich zu machen.
Solange keine Verifikation vor Ort möglich sei, würden Videos und Bilder aus Iran mit verschiedenen Tools mehrfach auf Aktualität und Verortung geprüft, so ZDF-Faktenchecker Jan Schneider.
12.01.2026 | 5:04 minEin Werkzeug zum Aufspüren von KI-Manipulationen ist "SynthID" von Google. Es erkennt für Menschen unsichtbare Wasserzeichen in Bildern und Videos, die bei der KI-Generierung hinterlegt werden. Eine von ZDFheute durchgeführte SynthID-Analyse des Selfies ergab folgendes Ergebnis:
Dieses Bild weist mehrere Merkmale auf, die stark darauf hindeuten, dass es mithilfe von Künstlicher Intelligenz (KI) erstellt oder bearbeitet wurde. Die Überprüfung mit SynthID hat ergeben, dass Teile dieses Bildes mit Google-KI bearbeitet oder generiert wurden.
Analyse des Selfies mit Googles "SynthID"
Auch Bilddetails wie unscharfe, verwaschene Kanten an den Zähnen können ein Hinweis auf KI-generierte Fotos sein, aber auch dadurch entstehen, dass ein Foto zigfach kopiert und auf anderen Plattformen neu hochgeladen wurde. Auch existieren mindestens zwei verschiedene Versionen des gestellten Fotos, auf denen unterschiedliche Helme zu sehen sind.
Eine zweite Version des viralen Fake-Fotos aus einem Facebook-Post mit Zehntausenden Likes.
Quelle: Screenshot: Facebook / Discvr Blog, veröffentlicht am 02.02.26, Quelle: facebook.com/Discvr BlogNicht alle Medien korrigieren falsche Darstellungen
Einige Medien wie die "Bild" veröffentlichten inzwischen Korrekturen zu ihrer Meldung - viele Seiten verbreiten das Bild aber weiterhin ohne Einordnung.
Wer Urheber des gefälschten Fotos ist, kann nicht eindeutig geklärt werden. Das echte Video des Vorfalls wurde unter anderem von einer britischen Agentur für virale Netzinhalte vermarktet - sie wird von zahlreichen Medien als Quelle auch für das Fake-Foto angegeben, was vermutlich aber eine falsche Zuschreibung ist. Häufig wird als Quellenhinweis lediglich die Plattform X genannt.
Manche Internetnutzer nehmen die Geschichte auch zum Anlass für Albernheiten: etwa ein KI-Video auf Basis des Fake-Fotos, worin die Chinesin mit dem Raubtier Fotos macht und spielt. Hier sollte die Fälschung für die meisten Nutzer offensichtlich sein, zumal der Leopard in einem Ausschnitt Englisch spricht und Ratschläge für gute Selfies gibt.
KI-Video mit dem Schneeleoparden
Erst wenn Sie hier klicken, werden Bilder und andere Daten von X nachgeladen. Ihre IP-Adresse wird dabei an externe Server von X übertragen. Über den Datenschutz dieses Social Media-Anbieters können Sie sich auf der Seite von X informieren. Um Ihre künftigen Besuche zu erleichtern, speichern wir Ihre Zustimmung in den Datenschutzeinstellungen. Ihre Zustimmung können Sie im Bereich „Meine News“ jederzeit widerrufen.
Fake-Bilder sind wachsendes Problem
Der Vorfall zeigt erneut, wie leicht sich spektakuläre Geschichten mit KI-Bildern ausschmücken lassen - und nicht nur harmlose Unterhaltung sind. Was hier lediglich das tragische Schicksal einer Touristin betrifft, wird im Fall von Anschlägen oder spektakulären Straftaten schnell zu einer realen Gefahr.
Falsche Personen können in den Fokus geraten oder Ermittler müssen womöglich Berge an generierten Bildern verifizieren, die ihnen als Hinweise weitergeleitet werden. Die Werkzeuge für solche Fälschungen hat inzwischen jeder einfache Internetnutzer.
Mehr zu KI-Fakes im Netz
- Faktencheck
KI-Bilder und alte Videos von Protesten:Iran: Diese Fakes gehen viral - so können Sie sie entlarven
von Oliver Kleinmit Video5:04 - Faktencheck
Nach den tödlichen ICE-Schüssen:Fakes zu Minnesota entfachen eine Hexenjagd im Internet
von Oliver Klein und Jan Schneidermit Video0:27 - Faktencheck
Digitale Tränen hinzugefügt:Weißes Haus postet Fake-Foto von Demonstrantin
von Oliver Kleinmit Video0:26 ZDF-Faktencheck:Wie Bildmaterial aus Iran überprüft wird
Video5:04