Expertin zu Internetkriminalität:Wie Deepfakes neue Dimensionen des Online-Betrugs eröffnen
Künstliche Intelligenz und Deepfakes eröffnen Kriminellen neue Dimensionen des Online-Betrugs. Die Forscherin Julia Krickl erklärt, wie Betrüger vorgehen - und was uns schützt.
Forscherin Julia Krickl warnt vor der Gefahr von Online-Betrugs durch Deepfakes. (Symbolbild)
Quelle: ImagoZDFheute: Der Einsatz von Künstlicher Intelligenz (KI) und so genannten Deepfakes eröffnet Kriminellen ganz neue Möglichkeiten beim Online-Betrug. Sie erforschen Deepfakes. Wie erklären Sie einem Laien, womit Sie sich befassen?
Julia Krickl: Täuschung hat Tradition. Aber mit generativer KI erreicht sie eine neue Dimension. Wo früher aufwendig Fotos entwickelt und montiert werden mussten, genügen heute wenige Klicks und kurze Textbefehle, um täuschend echte Bilder, Videos oder Tonaufnahmen zu erzeugen. Betrugsmaschen, die Menschen um ihr Geld bringen sollen, sind dadurch schneller, einfacher und raffinierter geworden.
KI macht Manipulation zur Massenware - und stellt die Gesellschaft vor enorme Herausforderungen.
Julia Krickl, Österreichisches Institut für angewandte Telekommunikation
… ist Leitende Forscherin am Österreichischen Institut für angewandte Telekommunikation (ÖIAT). Sie bearbeitet dort Projekte mit Fokus auf Algorithmen, Künstliche Intelligenz und deren ethische Fragestellungen, insbesondere im E‑Commerce, in sozialen Netzwerken und bei Internetkriminalität.
ZDFheute: Was kommt da auf uns alle zu?
Krickl: Wir sehen zum Bespiel, wie betrügerische Werbeanzeigen das Netz überschwemmen: Mit Fake-Bildern von TV-Stars, Politikerinnen oder auch Medizinern locken Kriminelle Menschen in Investmentfallen oder sie verkaufen ihnen zweifelhafte Mittel. Die Zahl solcher Fake-Kampagnen geht in die Tausende - ein klarer Hinweis darauf, dass Vertrauen in Bilder und Videos im Netz zunehmend riskant wird.
Mit Künstlicher Intelligenz lassen sich immer leichter sogenannte Deepfakes erstellen – also täuschend echte Videos, von real existierenden Personen. Das birgt große Gefahren.
11.10.2025 | 1:33 minZDFheute: Kann es mir als Mensch, der nicht im Rampenlicht steht, auch widerfahren, dass ich mit Deepfakes missbraucht werde?
Krickl: Ja, jeder kann Opfer von Deepfakes werden - besonders, wenn die eigenen Fotos frei im Netz kursieren. Experten raten daher dringend, Social-Media-Profile auf privat zu stellen.
Häufig tauchen Deepfakes im Kontext intimer Gewalt auf: Vor allem Frauen werden ohne Zustimmung digital entkleidet oder in pornografische Inhalte montiert - ein massiver Eingriff in ihre Selbstbestimmung.
Julia Krickl, Österreichisches Institut für angewandte Telekommunikation
ZDFheute: Sie warnen auch davor, dass Deepfake-Angriffe oft zu großen finanziellen Schäden führen. Gibt es typische Szenarien?
Krickl: Eine Betrugsmasche, mit der wir uns am meisten beschäftigen, ist der Investmentbetrug. Immer häufiger nutzen Kriminelle Prominente, um angeblich lukrative Investments zu bewerben - von Aktien bis Kryptowährungen. Diese Masche nimmt stark zu. Deshalb Achtung: Sobald Politiker oder bekannte TV-Gesichter plötzlich für Finanzanlagen werben, ist höchste Vorsicht geboten. Denn dahinter steckt meist reiner Investmentbetrug.
Wieviel Geld wird mit sexualisierter Gewalt und digitalem Missbrauch verdient? Wer macht das Geschäft mit Deepfake-Pornos?
11.12.2024 | 28:28 minZDFheute: Bei anderen Betrugsmethoden wird es noch kniffliger. Wie kann ich erkennen, ob ein Video oder eine Stimme gefälscht ist?
Krickl: Gefälschte Videos lassen sich derzeit oft noch an Details erkennen: unnatürliche Lippenbewegungen, unpassende Stimmen, unsaubere Übergänge zwischen Gesicht und Hintergrund oder auffällige Hände. Doch die Technik entwickelt sich rasant. Modelle wie Googles "Veo 3" erzeugen bereits Clips, die mit bloßem Auge kaum zu entlarven sind. Künftig wird es entscheidend sein, Inhalte kritisch im Kontext zu prüfen und auf technische Prüfwerkzeuge zurückzugreifen, um Täuschungen zu erkennen.
Kriminelle nutzen Deepfakes von Prominenten, um betrügerische Investments zu bewerben. Mit geklonter Stimme, manipulierter Mimik und angepassten Lippenbewegungen wirken die Videos täuschend echt. Über Social Media locken sie Opfer auf Fake-Plattformen, wo zunächst scheinbare Gewinne Vertrauen schaffen, bevor Auszahlungen blockiert und hohe Gebühren verlangt werden. Viele verlieren enorme Summen.
"Der strategische Einsatz von Deepfakes ist neu und besonders gefährlich, weil er durch täuschend echte Bilder, Stimmen und Bewegungen eine scheinbar stringente und glaubwürdige Geschichte erschafft, die selbst vorsichtige Menschen dazu verleiten kann, riskante Investitionen zu tätigen, denen sie ohne diese Manipulation vermutlich niemals zugestimmt hätten", sagt Forscherin Julia Krickl.
Die nächste Stufe des Betrugs sind Live-Deepfakes: Echtzeit-Videocalls mit gefälschten Finanzexpertinnen oder Influencern, die persönliche Beratung vortäuschen. Ein bekannter Fall zeigt, wie sogar eine Nachrichtensendung manipuliert wurde, um betrügerische Plattformen seriös erscheinen zu lassen.
Kriminelle setzen Deepfakes gezielt ein, um Anleger zu täuschen und Aktienkurse künstlich zu manipulieren. Prominente und Finanzexperten werden digital verfälscht, um wertlose Aktien als lukrative Tipps zu bewerben. Opfer landen über Social Media und Fake-Websites in WhatsApp-Gruppen, wo scheinbare Gewinne Vertrauen schaffen. Doch Kriminelle nutzen das so genannte "Pump-and-Dump"-Prinzip: Kurse werden zunächst aufgeblasen, dann mit Gewinn abgestoßen, während betrogene Anleger hohe Verluste erleiden. Künftig könnten Deepfakes auch falsche Unternehmensmeldungen oder erfundene Krisen verbreiten und so Märkte massiv beeinflussen.
Liebesschwindler nutzen zunehmend Deepfakes, um auf Dating-Plattformen Vertrauen zu erschleichen und Opfer finanziell auszunehmen. Statt echter zwischenmenschlicher Nähe verfolgen sie das Ziel, Geld zu erpressen – oft mit täuschend echten Videos oder Stimmen. Künftig könnten Live-Deepfakes die Gefahr noch steigern, da sie in Echtzeit Interaktionen vortäuschen.
Als deutliche "Romance Scam"-Warnsignale gelten: Forderungen nach Geld oder Geschenken, zu perfekte Plattform-Profile, ständige Erreichbarkeit, nie stattfindende Treffen und auffällige Medieninhalte.
Forscherin Julia Krickl sagt über die perfide Masche der Liebesschwindler: "Kriminelle erwerben in digitalen Archiven fiktive Identitäten mit Hunderten Fotos, Hintergrund- und Familiengeschichten, die eine Person glaubwürdig erscheinen lassen." Selbst in Telefonaten oder Videocalls können Kriminelle heute Fake-Identitäten täuschend echt interagieren lassen.
Beim sogenannten CEO-Fraud geben sich Kriminelle als Führungskräfte aus und setzen Opfer mit Verweis auf Hierarchie, Zeitdruck und Vertraulichkeit unter Druck, um schnelle Überweisungen zu erzwingen. Mithilfe von Deepfakes erreicht die Masche eine neue Dimension: Stimmen und Gesichter werden täuschend echt imitiert, sodass Video-Calls oder Telefonate die Autorität der falschen Identität glaubwürdig verstärken. Opfer glauben an strategische Übernahmen und überweisen hohe Summen, während hinter der Fassade KI-generierte Täuschungen stehen.
ZDFheute: Wie kann Technik helfen, Deepfakes effektiv zu enttarnen?
Krickl: Es gibt heute schon teils kostenlose Tools, die synthetische Medien - also KI-generierte Bilder, Videos oder Tonaufnahmen - erkennen können. Wir arbeiten in Österreich am Forschungsprojekt "Defame Fakes", das bessere Detektionsmethoden für Deepfakes entwickelt. Es ist ein Wettlauf zwischen Täuschung und Technik: Betrüger werden raffinierter, doch auch die Erkennungstools verbessern sich stetig.
Die Manipulation durch künstliche Intelligenz erreicht eine neue Dimension: Menschen sagen oder tun scheinbar Dinge, die sie nie gesagt oder getan haben. Wie groß ist die Gefahr?
13.04.2021 | 30:33 minZDFheute: Braucht es zudem bessere staatliche Schutzmechanismen oder bleiben Individuen auf sich gestellt im Umgang mit dem Phänomen?
Krickl: Der Kampf gegen digitale Betrugsmaschen darf nicht allein auf Einzelpersonen lasten. Hier greift in der Europäischen Union der Digital Services Act, seit 2024 in allen EU-Ländern anwendbar, der Plattformen stärker verpflichtet. Organisationen wie das ÖIAT agieren als "Trusted Flagger" und können illegale Inhalte priorisiert melden, die rasch geprüft und entfernt werden sollen. Doch die Durchsetzung bleibt problematisch: Plattformen handeln meist nur unter Druck. Sie verdienen an jeder Anzeige, auch an betrügerischen Investment-Scams.
Das Interview führte Marcel Burkhardt.
Mehr zum Thema KI-Fakes
- Faktencheck
Deepfakes:Die Gefahren von KI im Wahlkampf
mit VideoMillionen Views in Social Media:Myanmar-Erdbeben - KI-Fakes fluten das Netz
von Jan Schneider und Oliver Kleinmit Video