Neue Google-KI ermöglicht Flut an falschen Nachrichten-Clips
Mit acht Dollar Chaos schüren:Google-KI ermöglicht Flut an falschen News-Videos
von Nils Metzger
|
Täuschend echte KI-Videos von News-Events und Protesten: Googles neuer Veo-3-Generator macht das bedenklich einfach. Laien können sie kaum noch von echten Aufnahmen unterscheiden.
Google-CEO Sundar Pichai stellt bei einer Konferenz neue KI-Produkte vor. (Archivbild)
Quelle: AFP
In der US-Stadt Springfield ist die Stimmung am Kochen. Hunderte Anwohner protestieren gegen den Umbau der örtlichen Schule in eine Werft für Luxusyachten. "40 Jahre lebe ich schon hier - und noch nie habe ich so eine dumme Idee gehört", ruft ein älterer Mann in die Kamera einer Reporterin, im Hintergrund halten Demonstranten Schilder hoch - eine Nachrichtensprecherin kommentiert mit ernstem Blick, dass der Bürgermeister zur Kritik bislang schweige.
All das: völlig erfunden und doch täuschend echt. 28 Minuten Zeit und ein Guthaben im Wert von acht US-Dollar - das brauchte der niederländische Verifikations-Experte Henk van Ess, um mit Googles neuem KI-Video-Generator Veo 3 diesen bedenklich realistisch wirkenden Nachrichtenbeitrag zu generieren. Wie er vorging, beschreibt er in seinem Blog.
Mit Veo 3 erstelltes KI-Video
Ein Klick für den Datenschutz
Erst wenn Sie hier klicken, werden Bilder und andere Daten von X nachgeladen. Ihre IP-Adresse wird dabei an externe Server von X übertragen. Über den Datenschutz dieses Social Media-Anbieters können Sie sich auf der Seite von X informieren. Um Ihre künftigen Besuche zu erleichtern, speichern wir Ihre Zustimmung in den Datenschutzeinstellungen. Ihre Zustimmung können Sie im Bereich „Meine News“ jederzeit widerrufen.
Verfügbar ist Veo 3 seit wenigen Tagen - vorerst nur für Google-Nutzer aus den USA und nach Abschluss eines Bezahl-Abonnements. Doch schon innerhalb kurzer Zeit findet man im Netz eine ganze Reihe viraler Inhalte, die Nachrichtensendungen, Influencer-Videos oder Werbeclips imitieren - und in Zukunft womöglich gezielt genutzt werden könnten, um Chaos und Desinformation zu verbreiten.
Nach den verheerenden Erdbeben in Myanmar und Thailand kursieren im Netz viele KI-Fakes, die angebliche Szenen aus den Erdbebengebieten zeigen sollen. Wie man sie erkennt.04.04.2025 | 1:28 min
KI-Angebote immer schneller, einfacher und günstiger
"Wir erleben gerade das Ende des Prinzips, wonach etwas sehen zu können, auch heißt, es glauben zu können. Wir sind über den Punkt hinaus, dass die breite Öffentlichkeit zwischen einem authentischen Video und einem Fake unterscheiden kann", sagt Henk van Ess ZDFheute. Er trainiert weltweit Journalisten in digitalen Recherchemethoden.
Für van Ess ist Veo 3 ein einschneidender Moment. "Zuvor musste man verschiedene Werkzeuge nutzen, um erfundene Nachrichtenbeiträge zu erstellen - eins für Video, eins für Audio. Jetzt gibt es alles aus einer Hand und für professionelle Akteure zu verschwindend geringen Kosten."
Das Problem ist, wie lächerlich einfach es ist, diese Technologie als Desinformationswaffe einzusetzen.
„
Henk van Ess, Experte für digitale Verifikation
Die hohe Geschwindigkeit, mit der solche Inhalte erstellt werden können, macht sie besonders wirksam im Fall von Katastrophen oder Anschlägen, wenn oft nur wenige gesicherte Informationen verfügbar sind und sich kurze Videos rasend schnell verbreiten.
WhatsApp nutzt KI zur Datenauswertung - auch ohne Wissen der Chatpartner. Deaktivieren lässt sich das nicht. Bei Facebook und Instagram kann man der Nutzung noch widersprechen.08.05.2025 | 1:58 min
Warum schlechtere Videoqualität oft überzeugender wirkt
KI-generierte Videos waren bislang auch darum leicht zu identifizieren, da sie optisch unnatürlich makellos wirkten. Doch Angebote wie Veo 3 können den Stil wackeliger Handyaufnahmen und live eingesprochener Selfie-Videos von Augenzeugen immer besser imitieren. Auch Kameraeinstellungen mit Reportern im Bild, wie man sie aus professionellen Nachrichtensendungen kennt, gelingen realistisch.
"Um Videos glaubhafter erscheinen zu lassen, muss man sie schlechter aussehen lassen. Echte Desinformation ist häufig pixelig und amateurhaft. Mit Veo 3 ist sowas technisch möglich", schildert van Ess.
Musk, Vance und die AfD machen sich zu Vorkämpfern der Freiheit. Was bedeutet sie wirklich? Wer bestimmt Grenzen? Bettina Schausten, Nico Semsrott und Ulf Buermeyer diskutieren.27.05.2025 | 58:56 min
Google-Richtlinien verbieten gefährliche KI-Fakes
In seinen Nutzerrichtlinien für generative KI schreibt der Betreiber Google, dass es Nutzern untersagt ist, "Fehlinformationen oder Falschdarstellungen" zu verbreiten. Explizit als nicht erlaubt genannt werden dort etwa "irreführende Behauptungen im Zusammenhang mit behördlichen oder demokratischen Prozessen".
Auch "Inhalte, die gewalttätigen Extremismus oder Terrorismus fördern", werden dort untersagt. An anderer Stelle werden auch "fehlerhafte Katastrophenwarnungen oder Falschmeldungen zu anhaltenden Gewalttätigkeiten" verboten. Wann all das anfängt, ist häufig Auslegungssache.
Van Ess sagt ZDFheute, dass er bei seinem Versuch keine Sicherheitsmaßnahmen der Software habe überwinden müssen. Er habe mit Springfield bewusst ein völlig fiktives Beispiel gewählt.
In der bayrischen Landeshauptstadt eröffnet der US-Konzern "OpenAI" sein deutschlandweit erstes Büro. München möchte dadurch für Tech-Unternehmen noch attraktiver werden.22.05.2025 | 1:40 min
Von der Wirksamkeit der Google-Richtlinien ist er nicht überzeugt: "Dass Google in seinen Guidelines festhält, dass Nutzer keine gefährliche Falschinformation erstellen dürfen, ist wie eine Mutter, die ihrem Kind sagt, dass es keine Kekse klauen darf. Eine Kontrolle über die Veo-3-Inhalte scheint es offenbar nicht zu geben - wie sonst ist zu erklären, was in den vergangenen Tagen an erfundenen Inhalten online verbreitet wurde?"
Was sagt Google zu den erfundenen News-Videos?
Ein Google-Sprecher verweist auf Anfrage darauf, dass es wichtig sei, dass Nutzer "Zugriff auf Werkzeuge zum Überprüfen der Herkunft von Videos […]" hätten. Alle mit Googles AI-Lösungen erstellten Inhalte erhielten ein sogenanntes "SynthID"-Wasserzeichen zur Identifikation. Bislang sind diese Kennzeichen jedoch für Nutzer unsichtbar und müssen erst mit einer eigenen Google-Software händisch überprüft werden. Auf die haben bislang erst wenige Profi-Nutzer überhaupt Zugriff - gegen virale Falschinformationen ist das darum keine verlässliche Maßnahme.
Darum plane Google, bald auch ein zusätzliches, sichtbares Wasserzeichen für alle Veo-Videos einzuführen, so der Sprecher. Wie gut diese technische Lösung jedoch gegen Manipulation oder Entfernen geschützt ist, ist bislang nicht bekannt. Zudem unternehme Google Schritte, um "schädliche Eingaben und Ergebnisse zu verhindern", so das Unternehmen. Was das konkret umfasst, teilte Google nicht mit.
Wie neutral sind die Social-Media-Plattformen? 18.02.2025 | 8:41 min
Professionelle Faktenchecks mit Tempo-Nachteil
Normale Internetnutzer und auch professionelle Journalisten haben im Umgang mit KI-Manipulationen einen immer mehr anwachsenden Tempo-Nachteil.
Das rasante Tempo der KI-Video-Generatoren ist zu viel für Faktenchecker. Sie fahren Fahrrad in einem Formel-Eins-Rennen.
„
Henk van Ess, Experte für digitale Verifikation
Bis die Authentizität eines Videos aufwändig überprüft ist, ist es schon viral gegangen. "Um jedes KI-Video mit einem Warnlabel zu fassen, dafür ist es jetzt schon zu spät", sagt Henk van Ess. "Das ganze Internet droht in einer Flut an synthetischen Inhalten unterzugehen."
Neue Sprachmodelle fantasieren häufiger als ihre Vorgänger. Woran das genau liegt, weiß bisher niemand. Aber Beispiele aus dem Alltag zeigen, wie brisant das werden kann.