Leopard verletzt Chinesin: Gefälschtes Foto geht um die Welt

Faktencheck

KI-Fake zu spektakulärer Meldung:Leopard verletzt Chinesin: Echter Angriff, gefälschtes Foto

Autorenfoto Nils Metzger

von Nils Metzger

|

In China hat ein Schneeleopard eine Touristin angefallen. Der Vorfall ist echt, ein Selfie mit dem Raubtier eine KI-Montage. Ein wachsendes Problem bei spektakulären Meldungen.

Angriff eines Schneeleoparden in China: Original und KI-Fake

Angriff eines Schneeleoparden in China: Original (links) und vermeintliches Selfie (KI-Fake, rechts).

Quelle: ZDF/Screenshot: X / @DramaAlert, veröffentlicht am 02.02.26, Quelle: x.com/@DramaAlert

Es war eine der spektakulären Meldungen der letzten Tage, die weltweit durchs Netz ging: Ein Schneeleopard fällt eine Touristin in der Region Xinjiang im Nordwesten Chinas an. Mit blutüberströmtem Gesicht wird sie von Helfern gerettet; ihr Helm verhinderte noch Schlimmeres. Es ist der ultimative Albtraum für Sportler in der freien Natur.

Doch die Geschichte verdeutlicht ebenfalls, wie leicht sich solche aufsehenerregenden Ereignisse eignen, um mit gefälschten Bildern noch mehr Reichweite zu generieren.

Nutzer in Sozialen Medien kommentieren hämisch

Was den tragischen und seltenen Vorfall zum viralen Hit in den Sozialen Medien und bei vielen Boulevardmedien machte: Direkt vor dem Angriff soll die Touristin ein Selfie mit dem Schneeleoparden gemacht haben.

Screenshot KI-Fake: Angriff eines Schneeleoparden in China

Gefälschtes Selfie-Foto: Dieses Bild wurde von Unbekannten nachträglich hinzuerfunden. Es ist nicht echt. Details am Helm etwa stimmen nicht überein.

Quelle: Screenshot: X / @DramaAlert, veröffentlicht am 02.02.26, Quelle: x.com/@DramaAlert

Eine Aufnahme mit einer breit lächelnden Chinesin und einer lauernden Raubkatze, kaum mehr als einen Meter hinter ihr, wird auf vielen Plattformen von Facebook bis TikTok gepostet und erreicht dort Millionen Nutzer. Häufig kommentieren diese hämisch den Leichtsinn der Snowboarderin. "Sie ist das perfekte Beispiel, warum auf einer Packung Erdnüsse eine Warnung vor Nüssen stehen muss", schreibt ein Nutzer unter dem Artikel der britischen Boulevard-Plattform "Mirror".

Chinesische Behörden bestätigten den Vorfall, er soll sich bereits vor über einer Woche ereignet haben. Womöglich hat sich die Frau dem Tier tatsächlich genähert, anstatt sich in Sicherheit zu bringen, aber von einem Selfie ist dort nirgends die Rede.

Details am Helm passen nicht zum gefälschten Selfie-Bild

Und das kursierende Selfie stellt sich bei näherem Hinsehen als Fälschung heraus. Zwar kann man auf dem echten Video das Gesicht der Person nicht erkennen, aber der Helm, den sie dort trägt, ist nicht identisch mit dem auf dem viralen Fake-Foto, das unmittelbar vor dem Angriff entstanden sein soll. Es fehlt etwa das Hersteller-Logo an der Vorderseite. Andere Details wie die Farbe der Jacke stimmen jedoch. Es wurde womöglich Wert darauf gelegt, die Fälschung nicht zu offensichtlich zu machen.

ZDF Faktenchecker Jan Schneider in einem Bürostuhl vor einem Bücherregal.

Solange keine Verifikation vor Ort möglich sei, würden Videos und Bilder aus Iran mit verschiedenen Tools mehrfach auf Aktualität und Verortung geprüft, so ZDF-Faktenchecker Jan Schneider.

12.01.2026 | 5:04 min

Ein Werkzeug zum Aufspüren von KI-Manipulationen ist "SynthID" von Google. Es erkennt für Menschen unsichtbare Wasserzeichen in Bildern und Videos, die bei der KI-Generierung hinterlegt werden. Eine von ZDFheute durchgeführte SynthID-Analyse des Selfies ergab folgendes Ergebnis:

Dieses Bild weist mehrere Merkmale auf, die stark darauf hindeuten, dass es mithilfe von Künstlicher Intelligenz (KI) erstellt oder bearbeitet wurde. Die Überprüfung mit SynthID hat ergeben, dass Teile dieses Bildes mit Google-KI bearbeitet oder generiert wurden.

Analyse des Selfies mit Googles "SynthID"

Auch Bilddetails wie unscharfe, verwaschene Kanten an den Zähnen können ein Hinweis auf KI-generierte Fotos sein, aber auch dadurch entstehen, dass ein Foto zigfach kopiert und auf anderen Plattformen neu hochgeladen wurde. Auch existieren mindestens zwei verschiedene Versionen des gestellten Fotos, auf denen unterschiedliche Helme zu sehen sind.

Screenshot KI-Fake: Angriff eines Schneeleoparden in China

Eine zweite Version des viralen Fake-Fotos aus einem Facebook-Post mit Zehntausenden Likes.

Quelle: Screenshot: Facebook / Discvr Blog, veröffentlicht am 02.02.26, Quelle: facebook.com/Discvr Blog

Nicht alle Medien korrigieren falsche Darstellungen

Einige Medien wie die "Bild" veröffentlichten inzwischen Korrekturen zu ihrer Meldung - viele Seiten verbreiten das Bild aber weiterhin ohne Einordnung.

Wer Urheber des gefälschten Fotos ist, kann nicht eindeutig geklärt werden. Das echte Video des Vorfalls wurde unter anderem von einer britischen Agentur für virale Netzinhalte vermarktet - sie wird von zahlreichen Medien als Quelle auch für das Fake-Foto angegeben, was vermutlich aber eine falsche Zuschreibung ist. Häufig wird als Quellenhinweis lediglich die Plattform X genannt.

Manche Internetnutzer nehmen die Geschichte auch zum Anlass für Albernheiten: etwa ein KI-Video auf Basis des Fake-Fotos, worin die Chinesin mit dem Raubtier Fotos macht und spielt. Hier sollte die Fälschung für die meisten Nutzer offensichtlich sein, zumal der Leopard in einem Ausschnitt Englisch spricht und Ratschläge für gute Selfies gibt.

KI-Video mit dem Schneeleoparden

Ein Klick für den Datenschutz

Erst wenn Sie hier klicken, werden Bilder und andere Daten von X nachgeladen. Ihre IP-Adresse wird dabei an externe Server von X übertragen. Über den Datenschutz dieses Social Media-Anbieters können Sie sich auf der Seite von X informieren. Um Ihre künftigen Besuche zu erleichtern, speichern wir Ihre Zustimmung in den Datenschutzeinstellungen. Ihre Zustimmung können Sie im Bereich „Meine News“ jederzeit widerrufen.

Fake-Bilder sind wachsendes Problem

Der Vorfall zeigt erneut, wie leicht sich spektakuläre Geschichten mit KI-Bildern ausschmücken lassen - und nicht nur harmlose Unterhaltung sind. Was hier lediglich das tragische Schicksal einer Touristin betrifft, wird im Fall von Anschlägen oder spektakulären Straftaten schnell zu einer realen Gefahr.

Falsche Personen können in den Fokus geraten oder Ermittler müssen womöglich Berge an generierten Bildern verifizieren, die ihnen als Hinweise weitergeleitet werden. Die Werkzeuge für solche Fälschungen hat inzwischen jeder einfache Internetnutzer.

Mehr zu KI-Fakes im Netz

  1. Iran Protest - Fake-Bild
    Faktencheck

    KI-Bilder und alte Videos von Protesten:Iran: Diese Fakes gehen viral - so können Sie sie entlarven

    von Oliver Klein
    mit Video5:04

  2. KI-Fake des ICE-Agents aus Minneapolis
    Faktencheck

    Nach den tödlichen ICE-Schüssen:Fakes zu Minnesota entfachen eine Hexenjagd im Internet

    von Oliver Klein und Jan Schneider
    mit Video0:27

  3. Weißes Haus postet Fake-Foto der Festnahme einer Aktivistin - das Bild wurde so mit KI manipuliert, dass die Festgenommene weint
    Faktencheck

    Digitale Tränen hinzugefügt:Weißes Haus postet Fake-Foto von Demonstrantin

    von Oliver Klein
    mit Video0:26

  4. ZDF Faktenchecker Jan Schneider in einem Bürostuhl vor einem Bücherregal.