Rechtsberatung durch KI: Chance oder Risiko?

Juristische Auskunft durch KI:Kostenlose Rechtsberatung oder Fake News?

von Katharina Reiter
|

Künstliche Intelligenz ist aus dem Alltag vieler Menschen kaum noch wegzudenken. Aber eignet sich KI auch zur Beantwortung rechtlicher Fragen?

Rechtsberatung, KI, Symbolbild
Rechtsberatung durch KI (Symbolbild)
Quelle: ClipDealer

Bei rechtlichen Fragen geht es thematisch oft um miet- und arbeitsrechtliche Anliegen, Nachbarkeitsstreitigkeiten oder Unfälle im Straßenverkehr. Warum also nicht Künstliche Intelligenz zu Hilfe nehmen?
Die Antworten der KI klingen auf den ersten Blick meist plausibel, bergen jedoch das Risiko von Falschinformationen, die zum Teil durch die KI reproduziert und oftmals sogar durch diese eigenständig erfunden werden.
Eric mit Laptop in einer virtuellen Bibliothek
Wie einfach ist es, mit Hilfe von KI einen kurzen Fachvortrag zu erstellen? Kann KI eine Chance sein für das Bildungssystem?14.09.2024 | 17:55 min

Falsche Vorhersagen aufgrund veralteter Daten

"KI kann als erste Orientierungshilfe nützlich sein, um rechtliche Begriffe und Verfahren zu erklären und um erste Einblicke in bestimmte Rechtsgebiete zu geben", sagt Matthias Kettemann, Internetrechts- und KI-Experte am Alexander von Humboldt Institut für Internet und Gesellschaft in Berlin.
Allerdings könnten KI-Sprachmodelle eine rechtlich qualifizierte Beratung nicht ersetzen, weil die Systeme keine verbindlichen Antworten geben könnten und nicht immer verlässlich seien, so Kettemann.

Außerdem sind die Trainingsdaten oft veraltet, gerade bei juristischen Fällen aufgrund jüngerer Rechtsentwicklungen.

Matthias Kettemann, Internetrechts- und KI-Experte

Lesch & Co "Künstliche Intelligenz"
Neuronale Netze sind der Schlüssel für Künstliche Intelligenz. Doch wie sind sie eigentlich aufgebaut? Wie funktioniert KI?14.02.2018 | 7:26 min
"Insbesondere im Mietrecht", ergänzt Kettemann, "fallen ständig neue Urteile, über welche die KI in der Regel nicht verfügt".

Fatale Folgen durch erfundene KI-Informationen

Das Erfinden von Falschinformationen durch die KI wird auch als "halluzinieren" bezeichnet. Dies führte in der Vergangenheit sogar dazu, dass eine KI Gerichtsurteile erfand.
App+on Bilder
Hinter Sprachassistenten steckt Künstliche Intelligenz: Der Computer handelt scheinbar selbstständig. Dies kann vieles erleichtern, aber in Bezug auf Datenschutz schwierig sein.21.07.2024 | 2:02 min
So sind aus den USA mehrere Fälle bekannt, in denen Anwälte KI wie ChatGPT zur Vorbereitung von Klagen nutzten. Im Prozess stellte sich später heraus, dass die KI die Gerichtsurteile, welche die Anwälte vor Gericht als Präzedenzfälle zitierten, frei erfunden hatte.
"Eine der wichtigsten internen Regeln ist, zum Beispiel bei OpenAI, 'Be nice to the user'". warnt Kettemann.

Fragt der Nutzer die KI zum Beispiel nachdrücklich nach einem Urteil mit einem bestimmten Inhalt, wird die KI irgendwann ein entsprechendes Urteil erfinden, weil sie darauf trainiert ist, dem Nutzer zu helfen und diesem zu gefallen, auch wenn die Information nicht stimmt.

Matthias Kettemann, Alexander von Humboldt Institut für Internet und Gesellschaft in Berlin

Erteilt die KI basierend auf solchen Falschinformationen eine rechtliche Fehleinschätzung, kann dies für den Nutzer fatale Folgen haben. Denn verlässt man sich in solchen Fällen auf die Antworten der KI, droht häufig ein finanzieller Schaden.
heute journal - der Podcast mit Stefan Leifert und Dunja Hayali
Seit Ende Mai darf Meta unsere öffentlichen Posts nutzen, um seine KI zu trainieren. Was macht das mit unseren Feeds und unserem Vertrauen in Medien?28.05.2025 | 46:45 min

Keine Haftung durch KI bei Falschberatung

Anwälte sind zum Abschluss einer Berufshaftpflichtversicherung verpflichtet und haften im Falle einer objektiv fehlerhaften - und damit pflichtwidrigen - Rechtsberatung für die hieraus erwachsenden Folgen gegenüber Ihren Mandanten. Das heißt: Sie sind also zu Schadensersatz verpflichtet.
KI-Sprachmodelle hingegen haften für ihre Inhalte nicht. Der Nutzer bleibt daher im Falle einer fehlerhaften Beratung durch die KI auf seinem hierdurch entstandenen Schaden sitzen.

Höhere Zuverlässigkeit von KI durch Training

Aktuell verfügbare KI-Sprachmodelle sind folglich nicht geeignet, rechtliche Fragen zuverlässig zu beantworten. Aufgrund der rasanten Entwicklung Künstlicher Intelligenz könnte dies in Zukunft jedoch anders aussehen.
KI im Krankenhaus
Schon Gegenwart: Im Hamburger Uniklinikum hilft ein KI-Sprachmodell, Arztbriefe zu verfassen. Das spart Ärzten jeden Tag drei Stunden Zeit, die sie jetzt ihren Patienten zugute kommt. 29.09.2024 | 2:44 min

Ich glaube, es geht auf jeden Fall in die Richtung, dass wir in vielen Bereichen gute KI-Modelle bekommen werden. Gerade wenn sie mit Fällen und Rechtsbegriffen trainiert werden.

Matthias Kettemann, Internetrechts- und KI-Experte

Es sei immer eine Frage der Trainingsdaten, erklärt Kettemann. Unspezifische Modelle wüssten zu wenig über Sonderfragen des Rechts, um verlässlich zu sein, aber: "Es gibt teilweise bereits Systeme, die in diese Richtung gehen. Wenn man die KI als Rechts-KI trainiert, dann besteht durchaus das Potential, mittelfristig entsprechende Dienstleistungen anbieten zu können."

Icon von whatsapp
Quelle: dpa

Sie wollen auf dem Laufenden bleiben? Dann sind Sie beim ZDFheute-WhatsApp-Channel richtig. Hier erhalten Sie die wichtigsten Nachrichten auf Ihr Smartphone. Nehmen Sie teil an Umfragen oder lassen Sie sich durch unseren Podcast "Kurze Auszeit" inspirieren. Zur Anmeldung: ZDFheute-WhatsApp-Channel.

Mehr über Künstliche Intelligenz