Fake-KI-Umfragen: Rassismus zwischen Koch-Reels und Katzenvideos
Video-Flut bei TikTok:KI-Fake-Umfragen schüren Ressentiments
von Jan Schneider
|
KI-generierte Straßenumfragen mit fremdenfeindlichen Untertönen erreichen Millionen Menschen auf TikTok. Warum das gefährlich ist und was dahintersteckt.
Gar nicht so echt wie es aussieht: Mit KI erstelltes Video einer Umfrage in der Fußgängerzone
Quelle: TikTok
Eine blonde Frau spricht in einer Fußgängerzone in das Mikrofon eines Mannes: "Meine Tochter ist acht. Sie bekommt jeden Tag Schweinefleisch - damit sie mit 14 nicht heiraten muss." Dann erzählt eine ältere Dame, dass sie nur noch mit Kopftuch zum Bäcker geht, weil sie sonst ständig nach ihrem Ausweis gefragt würde. Zum Abschluss erklärt ein Polizist auf die Frage, ob er sich in Deutschland sicher fühle mit den Worten: "Ich versuche in der Öffentlichkeit kein Deutsch zu sprechen."
Diese Szenen wirken wie Momentaufnahmen aus deutschen Städten - spontane Straßeninterviews. Ein bewährtes Stilmittel im Journalismus, um ein Stimmungsbild einzufangen: Was denken die Leute? Wie empfinden sie Sicherheit, Migration, Politik? Der Reporter hält das Mikrofon hin, hört zu, lässt die Straße sprechen.
Doch nichts daran ist echt: Die Gesprächspartner gibt es nicht. Ihre Aussagen stammen nicht aus Interviews, sondern aus Textprompts. Gesichter, Stimmen und Gesten wurden alle per KI generiert. In den letzten Wochen ergießt sich eine regelrechte Flut solcher Videos in die Sozialen Netzwerke wie TikTok, Instagram und Youtube - häufig mit fremdenfeindlichen Narrativen.
Clips transportieren ein Gefühl von Angst
Katharina Nocun ist Expertin für Desinformation. Sie hat sich einige der Videos für ZDFheute angeschaut:
Das klassische Vox-Pop-Format - wir lassen mal die Straße reden - wirkt besonders anschlussfähig für rechtsextreme Narrative. Wenn so etwas jemand dort sagt, dann kann ich das ja auch sagen - das verschiebt die gefühlte rote Linie dafür, was sagbar ist und was nicht.
„
Katharina Nocun, Bürgerrechtlerin und Publizistin
Die Videos sind rhetorisch zugespitzt, emotional aufgeladen. Und sie transportieren gezielt ein Gefühl: Angst. Angst vor dem sozialen Abstieg, vor kulturellem Verlust, vor Überfremdung. Deutsche dürfen nicht mehr Deutsch sprechen. Frauen müssen sich verschleiern. Kinder werden islamisiert. Alles inszeniert - und algorithmisch verstärkt. Die Aussagen wirken echt - sind aber frei erfunden.
Auf Befehl schreibt ChatGPT Liebesbriefe, Bewerbungen, Emails und vieles mehr. Doch das Programm ist anfällig für Falschaussagen und Fake News. Wie kann es dazu kommen? 20.04.2023 | 4:27 min
Synthetische Realität auf TikTok und Instagram
Diese Umfrage-Videos sind keine Einzelfälle - aber auch nur ein kleiner Teil der Flut an KI-generierten Clips, mit denen Plattformen wie TikTok, Instagram oder Youtube überschwemmt werden. Vieles davon soll lustig sein oder unterhalten: Katzenvideos, Jesus im Körper eines Hummers, alte Menschen, die plötzlich einen Salto machen. Doch es gibt auch jede Menge menschenverachtende, fremdenfeindliche und eklige Inhalte.
Schwarze Menschen werden als Affen dargestellt, Polizeigewalt wird gefeiert, es gibt Gags über den Ku-Klux-Klan. In einem Video berichtet ein angeblicher KZ-Häftling in seinem Videoblog aus einem Konzentrationslager - und macht dabei Witze über ermordete Frauen und Kinder. Der Holocaust als Satire-Sketch - mit mehr als einer Million Aufrufe auf TikTok.
Mit KI erstellt: Ein angeblicher KZ-Häftling berichtet in seinem Videoblog aus einem Konzentrationslager.
Auch wenn einige der Profile die Videos mit dem Hinweis "mit KI-erstellt" oder "Satire" auszeichne, bei den Rezipienten können die Clips trotzdem zu einem gewissen Gewöhnungseffekt führen, meint Nocun:
Es macht einen großen Unterschied, ob ich gezielt eine rechtsextreme Webseite aufrufe - oder ob mir solche Inhalte zwischen Tanzvideos und Koch-Reels angezeigt werden. Das vermittelt das Gefühl: Das gehört zum normalen, sozialen, akzeptierten Raum.
„
Katharina Nocun, Bürgerrechtlerin und Publizistin
Fake-Umfragen zielen auf Ängste und Unzufriedenheit
Die angeblichen Straßenumfragen sind dabei schwerer als Fake zu erkennen: Auch wenn die KI an manchen Stellen noch Fehler macht, haben Sprache und Bilder ihre Wirkung. Die Aussagen bedienen unterschwellig rassistische oder nationalistische Stereotype. "Was die Verbreitung dieser Inhalte besonders effektiv macht", sagt Nocun, "ist, dass sie rassistische Aussagen als vermeintlich harmlose Witze tarnen. Das hat zwei Effekte: Kritik wird leicht als Überempfindlichkeit abgetan - und gleichzeitig lässt sich behaupten, es sei doch nur Satire."
2024: Europa wählt - und Desinformationskampagnen laufen auf Hochtouren.05.06.2024 | 1:29 min
Besonders perfide: Rassistische Aussagen werden mitunter sogar migrantischen Figuren in den Mund gelegt - eine Täuschung mit Wirkung. "Das kennt man: Jemand erzählt einen rassistischen Witz und rechtfertigt sich dann damit, dass sein Freund mit Migrationshintergrund den Witz selbst gemacht hat", so Nocun. "Wenn diese Aussagen dann noch von synthetischen migrantisch aussehenden Avataren kommen, verstärkt das den Effekt: Schau mal, die sagen das ja sogar selbst über sich."
In den Kommentaren unter den Videos wird auch deutlich: Die meisten erkennen, dass es sich um künstlich erstelle Videos handelt - fühlen sich durch sie aber in ihrer Sicht auf die Welt bestärkt. "Zuerst habe ich gedacht dass das KI ist, und dann habe ich aus dem Fenster geschaut", schreibt ein TikTok-Nutzer. Oder auch:
Triffts sehr gut - traurig aber wahr.
„
Kommentar eines TikTok-Nutzers unter einem KI-Video
Viele der Videos wurden mit Googles KI-Tool Veo3 erstellt. In einigen ist auch noch das Wasserzeichen der Software zu sehen. Andere Programme nennen sich Sora oder DALL-E. Für wenige hundert Euro im Monat kann damit praktisch jeder täuschend echte Videos erstellen. Die Einstiegshürde ist niedrig. Diese Demokratisierung der Videoerstellung ist dabei Fluch und Segen zugleich. Zwar eröffnen sich kreative Möglichkeiten - doch in den falschen Händen werden diese Tools zu Instrumenten gezielter Desinformation oder sogar Propaganda.
Quelle: dpa, TikTok @volksfragen1, ZDF
Es gibt verschiedene Hinweise, ab denen erkennbar wird, dass ein Video per KI erstellt wurde. Eindeutig sind die Wasserzeichen der Programme - auch wenn Sie teilweise etwas versteckt platziert werden. Andere Anhaltspunkte sind Lippenbewegungen, zu glatte oder seltsam glänzende Zähne, unsinnige Werbebanner oder Tippfehler auf Plakaten. Auch bei der Aussprache mancher Worte hat die KI noch Schwierigkeiten.
Teilweise sind es auch einfach Fehler, die nur ein geschultes Auge erkennt: In der Szene mit den Polizisten hat einer der Beamten den Schriftzug "POLIZEI" auf dem Oberarm. Dort haben echte Uniformen aber stets das Wappen des entsprechenden Bundeslandes, den Bundesadler im Falle der Bundespolizei.
Plattformen sind Teil des Problems
Besonders problematisch ist die Rolle der Plattformen. Meta etwa hat seinen Algorithmus kürzlich so angepasst, dass mehr Inhalte von unbekannten Konten angezeigt werden. Damit erreichen synthetische Clips auch Nutzer, die ihnen nie aktiv gefolgt sind.
Zudem schaffen Monetarisierungsprogramme Anreize: Je mehr Aufrufe ein Video erzielt, desto mehr Geld verdienen seine Ersteller. In Breaking-News-Momenten - etwa bei Flugzeugabstürzen, Attentaten oder militärischen Zwischenfällen - sind synthetische Videos daher besonders zahlreich und gefährlich.
Renate Künast (Grüne) hat wie kaum eine andere Politikerin gegen Hass und Desinformation in den sozialen Netzwerken gekämpft.11.02.2025 | 0:44 min
Nicht alle KI-Inhalte sind böswillig. Viele Nutzer verwenden sie als neue Form der Unterhaltung. Doch die Grenze zwischen Satire und Desinformation verschwimmt, sobald Zuschauer den Unterschied nicht mehr erkennen.