ChatGPT und Perplexity: Wie Chatbots die Nachrichten verzerren

Studie der Öffentlich-Rechtlichen:Wie ChatGPT und Co die Nachrichten verzerren

von Julian Schmidt-Farrent

|

Immer mehr Menschen nutzen KI-Assistenten, um sich zu informieren. Doch die Chatbots machen gravierende Fehler - und schieben es traditionellen Medien in die Schuhe.

Handy mit Aufschrift ChatGPT

Auf Befehl schreibt ChatGPT Liebesbriefe, Bewerbungen, E-Mails und vieles mehr. Doch das Programm ist anfällig für Falschaussagen und Fake News. Wie kann es dazu kommen?

20.04.2023 | 4:27 min

Wieso wählen so viele Ostdeutsche die AfD? Seit mehr als zehn Jahren suchen Wissenschaft und Politik nach Antworten. ChatGPT bekam dieselbe Frage gestellt - und servierte statt einer Gesellschaftsanalyse lieber Restauranttipps in Kiew. Es ist nur eine der absurden Antworten, die Chatbots in einer neuen Studie der Europäischen Rundfunkunion EBU gegeben haben.

Fast jede zweite Antwort von ChatGPT, Perplexity und Co. war demnach fehlerhaft: Bei 45 Prozent der Fragen gaben die KI-Assistenten irreführende Antworten, unterschlugen Kontext oder verwiesen auf falsche Quellen. Öffentlich-rechtliche Sender aus 18 Ländern hatten die Chatbots geprüft, neben dem ZDF nahmen auch Radio Canada und der schwedische Sender SVT teil.

Insgesamt werteten die Medien mehr als 2.700 Antworten aus, die ChatGPT, Copilot, Perplexity und Gemini auf einen einheitlichen Fragenkatalog gegeben hatten. Eine der Fragen: Ist Viktor Orban ein Diktator? Na sicher, antwortete Perplexity - und gab an, dass die Tagesschau Orbans Regierungsstil als "autoritär und illiberal" bezeichne. In dem verlinkten Artikel von tagesschau.de war davon keine Rede.

ChatGPT oder Copilot? Welche KI am zuverlässigsten antwortet

Irreführende Quellenverweise sind typische Fehler der Chatbots: Mal wurde Putins Karriere mit Kreml-Websites erklärt, mal der Erfolg der AfD über Reddit-Kommentare analysiert.

ZDFheute Infografik

Ein Klick für den Datenschutz

Für die Darstellung von ZDFheute Infografiken nutzen wir die Software von Datawrapper. Erst wenn Sie hier klicken, werden die Grafiken nachgeladen. Ihre IP-Adresse wird dabei an externe Server von Datawrapper übertragen. Über den Datenschutz von Datawrapper können Sie sich auf der Seite des Anbieters informieren. Um Ihre künftigen Besuche zu erleichtern, speichern wir Ihre Zustimmung in den Datenschutzeinstellungen. Ihre Zustimmung können Sie im Bereich „Meine News“ jederzeit widerrufen.

Bei mehr als 56 Prozent der Antworten verwiesen die Assistenten auf falsche Quellen oder schoben Medien Aussagen unter, die sie so nicht getätigt hatten - ein Vertrauensverlust für die Öffentlich-Rechtlichen, die bei Falschaussagen irrtümlich als Belege verlinkt wurden.

Die KI-Assistenten sorgen für Unruhe im klassischen Nachrichtenmarkt. Zwar nutzt laut der Universität Oxoford nur eine Minderheit ChatGPT oder Copilot als Nachrichtenquelle. Bei unter 25-Jährigen liegt dieser Wert allerdings bereits bei 15 Prozent. Dabei scheiterten die Bots in der Studie teils an simplen journalistischen Nachrichtenkriterien.

KI erobert die Arbeitswelt

Künstliche Intelligenz erobert in immer größeren Schritten die Arbeitswelt. Dabei können Programme wie ChatGPT die Arbeit erheblich erleichtern. Doch wie kann KI richtig in den Arbeitsalltag integriert werden?

23.07.2024 | 2:34 min

ChatGPT und Perplexity: Antworten nach Herkunftsland

So trennten Copilot, ChatGPT und Co. nicht ausreichend Meinungen von Fakten: Auf die Frage nach der Aufgabe der Nato antwortete Copilot mit einem Lobgesang auf das Verteidigungsbündnis. Als Quelle verwies der Chatbot auf ein Interview mit einer tschechischen Politikerin - und verwandelte direkte Zitate in Fakten.

Immerhin verbesserten sich die Antworten teils erheblich im Vergleich zur Vorgängerstudie. Am besten schnitt Perplexity ab: Rund 31 Prozent der Antworten des Chatbots enthielten gravierende Fehler - der Bestwert unter allen KI-Assistenten. Gemini fiel dagegen durch: 76 Prozent der Gemini-Aussagen hatten signifikante Probleme. Dem Google-Chatbot fiel vor allem ein sauberer Umgang mit Quellen schwer.

MvELT-anteil-der-ki-antworten-mit-gravierenden-m-ngeln

ZDFheute Infografik

Ein Klick für den Datenschutz

Für die Darstellung von ZDFheute Infografiken nutzen wir die Software von Datawrapper. Erst wenn Sie hier klicken, werden die Grafiken nachgeladen. Ihre IP-Adresse wird dabei an externe Server von Datawrapper übertragen. Über den Datenschutz von Datawrapper können Sie sich auf der Seite des Anbieters informieren. Um Ihre künftigen Besuche zu erleichtern, speichern wir Ihre Zustimmung in den Datenschutzeinstellungen. Ihre Zustimmung können Sie im Bereich „Meine News“ jederzeit widerrufen.

KI: Chatbots werden selbstbewusster

"Wir wollen die Informationsvermittlung im KI-Zeitalter aktiv mitgestalten und sehen die Chancen der Technologie", erklärt ZDF-Intendant Norbert Himmler mit Blick auf die Studie. Die Ergebnisse belegten die Bedeutung öffentlich-rechtlicher Informationsangebote.

Die Studie unterstreicht zudem die Notwendigkeit, die Qualität von KI-generierten Inhalten kontinuierlich zu überprüfen.

Norbert Himmler, Intendant des ZDF

Denn im Vergleich zur Vorgängerstudie waren die Assistenten selbstbewusster: Immer häufiger antworteten die Chatbots auf Fragen, die sie nicht erklären konnten. "KI scheitert daran, auf eine Frage einfach mit 'Wir wissen es nicht' zu antworten", schlussfolgerte ein Studienteilnehmer. "Sie versucht lieber, die Lücke mit Erklärungen zu füllen, statt journalistisch die Grenzen ihres Wissens zuzugeben."

Mehr zum Thema

  1. Sam Altman, CEO von OpenAI am 03.02.2025

    Preis für OpenAI-Chef Sam Altman:Umstrittene Galionsfigur der KI-Revolution

    von Dennis Berger

  2. Student vor einem Bildschirm - Symbolbild Künstliche Intelligenz
    Interview

    Experte zu KI-Infrastruktur :Europa hat "Fenster von ein, eineinhalb Jahren"

    mit Video

  3. Social Media Fakefoto zeigt Donald Trump
    Faktencheck

    Deepfakes erreichen Millionen:Trump und Epstein - KI-Clips gehen viral

    von Oliver Klein
    mit Video

  4. Student sitzt vor einem Computer

    Chatbots & Co an der Uni:Wie Künstliche Intelligenz das Studium ändert

    von Noah Schmitt
    mit Video