KI und Anwaltshaftung: Was passiert, wenn die KI halluziniert?
Prof. Dr. Markus Klein
Legal Tech Researcher
Im Oktober 2025 wies das AG Köln einen Klageantrag ab, weil der einreichende Anwalt in seinem Schriftsatz auf Urteile verwiesen hatte, die nicht existierten. Die Quelle: ein generischer Chatbot, der die Entscheidungen frei erfunden hatte. Der Richter monierte, dass keinerlei Quellenprüfung stattgefunden habe. Die Mandantin verlor ihren Anspruch. Der Anwalt stand vor einem Haftungsproblem.
Das ist kein Einzelfall mehr. Laut der Future Ready Lawyer Studie 2026 setzen bereits 63,6 % der deutschen Kanzleien KI-Tools ein, 82,5 % davon generative Sprachmodelle wie ChatGPT. Gleichzeitig zeigt die Praxis, dass viele dieser Tools regelmäßig halluzinieren, also Paragraphen, Urteile oder Rechtsgrundlagen erfinden, die es nicht gibt. Für Anwält*innen ist das kein technisches Kuriosum. Es ist ein Haftungsrisiko.
Dieser Artikel zeigt Ihnen, wo die KI Haftung Anwalt konkret entsteht, welche berufsrechtlichen Pflichten gelten und wie Sie Halluzinationen technisch und organisatorisch vermeiden. Wenn Sie den allgemeinen Rahmen von KI im Recht zuerst einordnen möchten, empfehlen wir unseren Beitrag zu KI im Recht: Chancen und Grenzen.
Was KI-Halluzinationen im Recht bedeuten
Der Begriff „Halluzination“ klingt harmlos. In der juristischen Praxis ist er das Gegenteil. Das Thema KI Halluzinationen betrifft inzwischen jeden Anwalt und jede Anwältin, die generative Tools nutzt. Eine Halluzination entsteht, wenn ein Sprachmodell eine Antwort generiert, die syntaktisch korrekt, inhaltlich aber frei erfunden ist. Das betrifft:
- —
Falsche Paragraphen: Das Modell erfindet einen § 47b KSchG, der nicht existiert.
- —
Erfundene Urteile: BGH-Entscheidungen mit plausiblen Aktenzeichen, die nie gefällt wurden.
- —
Vertauschte Rechtsgrundlagen: Die richtige Norm wird zitiert, aber mit falschem Inhalt wiedergegeben.
- —
Veraltete Rechtslage: Das Modell gibt den Stand von 2019 als geltendes Recht aus.
Das Problem ist strukturell. Generative Sprachmodelle produzieren Text auf Basis statistischer Wahrscheinlichkeiten. Sie haben kein Verständnis von Recht, keinen Zugang zu aktuellen Gesetzestexten und keine interne Prüfinstanz. Dass der Output professionell klingt, macht ihn für Jurist*innen besonders gefährlich. Wer nicht aktiv prüft, erkennt die Fehler oft nicht auf den ersten Blick.
Warum gerade juristische Halluzinationen so teuer werden
Im Unterschied zu anderen Branchen hat ein falsches Zitat im juristischen Kontext sofortige Konsequenzen. Ein erfundener Paragraph in einem Schriftsatz kann zur Zurückweisung des Antrags führen. Ein nicht existierendes Urteil in einem Gutachten kann die gesamte Argumentation entwerten. Und wenn der Mandant dadurch einen Anspruch verliert, steht die Haftungsfrage im Raum.
Wo die KI Haftung Anwalt entsteht: Berufsrecht und Sorgfaltspflichten
Die Frage der KI Haftung Anwalt beginnt nicht beim Tool, sondern beim berufsrechtlichen Pflichtenprogramm. Drei Normen bilden den Kern.
§ 43 BRAO: Die Sorgfaltspflicht
§ 43 BRAO verpflichtet Rechtsanwält*innen, ihren Beruf gewissenhaft auszuüben. Die Gewissenhaftigkeit umfasst die eigenverantwortliche Prüfung aller Arbeitsergebnisse, unabhängig davon, ob sie manuell oder mit Hilfe von Werkzeugen erstellt wurden. Eine KI-Ausgabe ungeprüft zu übernehmen, verstößt gegen diese Pflicht.
§ 43a BRAO: Verschwiegenheit und Sorgfalt
§ 43a BRAO konkretisiert die Kernpflichten. Für den KI-Einsatz ist hier besonders relevant, dass die Sorgfaltspflicht nicht delegierbar ist. Wer ein Tool einsetzt, bleibt persönlich verantwortlich für das Ergebnis. Die BRAK formuliert das im Leitfaden zum KI-Einsatz unmissverständlich: „Die eigenverantwortliche Überprüfung und Endkontrolle des KI-Outputs bleibt erforderlich.“
Das hat direkte Konsequenzen für die KI Haftung Anwalt: Selbst wenn die KI den Fehler produziert hat, haftet der Anwalt oder die Anwältin, weil die Prüfung unterblieben ist.
§ 280 BGB i. V. m. Mandatsvertrag: Die zivilrechtliche Haftung
Wenn ein Mandant durch einen KI-generierten Fehler einen Nachteil erleidet, etwa ein verlorenes Verfahren oder eine verpasste Frist, greift die reguläre Anwaltshaftung nach § 280 Abs. 1 BGB. Die Anwaltshaftung bei KI-Fehlern folgt denselben Grundsätzen wie bei manuellen Versäumnissen. Der Pflichtverletzungsvorwurf liegt nicht in der Nutzung von KI an sich. Er liegt im Unterlassen der gebotenen Prüfung.
RA Dr. Katrin F. aus München hat das am eigenen Fall erlebt. Anfang 2026 übernahm sie ein mietrechtliches Mandat und ließ sich von einem generischen Chatbot eine erste Zusammenfassung der Rechtslage erstellen. Dieser zitierte eine BGH-Entscheidung zur Mietpreisbremse mit einem plausiblen Aktenzeichen, das jedoch frei erfunden war.
Die Kollegin fiel darauf herein, weil sie die Aktenzeichen nicht gegen dejure.org abglich. Im Schriftsatz tauchte die Entscheidung auf. Der gegnerische Anwalt wies den Fehler nach. Das Gericht bewertete den Vortrag als unsubstantiiert. Die Mandantin verlor in der Instanz. Die Berufshaftpflicht griff zwar, aber der Reputationsschaden blieb.
Was die BRAK zum Prüfungsmaßstab sagt
Der BRAK-Leitfaden zum KI-Einsatz vom Dezember 2024 definiert den Maßstab der Prüfungspflicht für KI-Ergebnisse konkreter. Die Kernaussagen:
- —
Jeder KI-generierte Output muss inhaltlich vollständig überprüft werden, bevor er verwendet wird.
- —
Die Prüfung muss sich auf Rechtsnormen, Fundstellen und Sachverhaltsdarstellungen erstrecken.
- —
Anwält*innen dürfen sich nicht darauf verlassen, dass das Modell korrekte Quellen liefert.
- —
Die Verantwortung für die fachliche Richtigkeit liegt ausschließlich beim Anwalt oder der Anwältin.
Die Botschaft ist klar: KI darf genutzt werden, aber der Maßstab der Sorgfalt bleibt derselbe wie bei manueller Arbeit. Die KI Haftung Anwalt entsteht nicht, weil KI verboten wäre. Sie entsteht, weil die Prüfung fehlt.
Wenn Sie nach einem System suchen, das von vornherein auf verifizierte Paragraphen-Verweise setzt, können Sie sich die Funktionen der Lulius Kanzlei-Suite ansehen. Dort basiert jede Antwort auf indexierten Bundesgesetzen, nicht auf statistischen Vermutungen.
Was das AG Köln und vergleichbare Fälle zeigen
AG Köln, Oktober 2025: KI-Schriftsatz mit erfundenen Urteilen
Der Fall vor dem AG Köln war nicht der erste seiner Art weltweit, aber einer der ersten in Deutschland, der öffentlich dokumentiert wurde. Ein Anwalt reichte einen KI-generierten Schriftsatz ein, dessen Fehler vor Gericht auffielen: mehrere Urteile, die ein Chatbot frei erfunden hatte. Die Entscheidungen existierten nicht. Das Gericht wies den Antrag ab und stellte fest, dass die fehlende Quellenprüfung einen Verstoß gegen anwaltliche Sorgfaltspflichten darstelle.
USA: Mata v. Avianca (2023)
International wurde der Fall Mata v. Avianca vor dem Southern District of New York zum Leitfall. Anwalt Steven Schwartz hatte ChatGPT zur Recherche eingesetzt und sechs komplett erfundene Gerichtsentscheidungen in seinen Schriftsatz aufgenommen. Richter Castel verhängte eine Geldstrafe von 5.000 USD und stellte fest, dass die Verwendung ungeprüfter KI-Outputs einen Verstoß gegen die Sorgfaltspflicht darstellt.
Das Muster ist überall gleich
In keinem der bekannten Fälle wurde die KI-Nutzung selbst gerügt. Das Problem war immer dasselbe: fehlende Prüfung. Für die KI Haftung Anwalt bedeutet das einen klaren Grundsatz: Nicht das Tool ist das Risiko. Die fehlende menschliche Kontrolle ist es.
Sie möchten KI nutzen, ohne dieses Risiko einzugehen?
Testen Sie die Lulius Kanzlei-Suite mit RAG-Technologie und verifizierten Paragraphen-Verweisen. 30 Tage kostenlos, keine Kreditkarte.
Kanzlei-Suite testenWarum RAG-Technologie den Unterschied macht
Die meisten KI-Halluzinationen entstehen, weil generative Sprachmodelle Antworten aus ihrem Trainingsmaterial ableiten, ohne auf aktuelle, verifizierte Quellen zuzugreifen. RAG, Retrieval Augmented Generation, durchbricht dieses Muster.
Wie RAG funktioniert
Bei einem RAG-System wird die Nutzeranfrage zuerst gegen eine indexierte Datenbank abgeglichen, bevor das Sprachmodell eine Antwort formuliert. In juristischen Anwendungen bedeutet das:
- 1.
Die Anfrage wird analysiert.
- 2.
Das System durchsucht einen Index vollständig indexierter Gesetzestexte.
- 3.
Nur die tatsächlich vorhandenen, verifizierten Normen werden als Grundlage verwendet.
- 4.
Das Sprachmodell formuliert die Antwort auf Basis realer Paragraphen.
Der entscheidende Unterschied: Die Antwort kann nur enthalten, was in der Datenbank tatsächlich vorhanden ist. Ein § 47b KSchG kann nicht zitiert werden, wenn er im Index nicht existiert. Ein BGH-Urteil kann nicht erfunden werden, wenn nur echte Gesetzestexte indexiert sind.
Was die DSK zu RAG sagt
Die Datenschutzkonferenz hebt in ihrer Pressemitteilung zu RAG-Systemen vom Oktober 2025 hervor, dass RAG die Genauigkeit, Nachvollziehbarkeit und Verlässlichkeit von KI-Ausgaben erhöhen kann. Für Kanzleien ist das doppelt relevant: bessere Ergebnisse und mehr Kontrollierbarkeit. Beides reduziert das Risiko der KI Haftung Anwalt erheblich. Wie die datenschutzrechtliche Seite von RAG-Systemen für Kanzleien aussieht, zeigt unser Beitrag zur DSGVO-konformen KI für Anwälte.
RAG ist kein Freifahrtschein
Auch mit RAG bleibt die Prüfungspflicht bestehen. Aber die Ausgangslage verändert sich grundlegend. Statt Antworten zu prüfen, die auf statistischen Vermutungen basieren, prüft man Antworten, die auf verifizierten Gesetzestexten aufbauen. Das ist ein qualitativer Unterschied, kein kosmetischer.
RA Johannes M. aus Hamburg illustriert den Unterschied aus der Praxis. Bis Mitte 2025 nutzte er einen generischen Chatbot für erste Recherchen. Zwei Mal entdeckte er halluzinierte Normen erst beim manuellen Gegencheck, einmal erst nach dem Versand eines Entwurfs an den Mandanten. Seit Januar 2026 arbeitet er mit einem RAG-basierten System, das 150+ Bundesgesetze indexiert hat. In vier Monaten Nutzung hat er keine einzige halluzinierte Fundstelle mehr entdeckt. Seine Kontrollzeit pro Gutachten-Entwurf sank von durchschnittlich 45 auf 15 Minuten, weil er Paragraphen-Verweise nicht mehr einzeln nachschlagen muss, sondern verifiziert vorfindet.
Berufshaftpflicht und KI: Sind Sie versichert?
Was die Berufshaftpflicht abdeckt
Grundsätzlich greift die Berufshaftpflichtversicherung bei Vermögensschäden aus anwaltlichen Pflichtverletzungen. Das schließt auch Fehler ein, die durch die Verwendung von KI-Tools entstehen, solange die fehlerhafte Beratung im Rahmen eines Mandats erfolgte.
Wo es kritisch werden kann
Die Haftpflichtversicherung prüft, ob ein grob fahrlässiges Verhalten vorlag. Wenn ein Anwalt wissentlich ungeprüfte KI-Outputs verwendet, kann der Versicherer die Leistung kürzen oder verweigern. In der Praxis heißt das: Dokumentieren Sie Ihren Prüfprozess. Halten Sie fest, welche Tools Sie nutzen, wie Sie Ergebnisse verifizieren und welche internen Richtlinien gelten.
Was Versicherungsexperten empfehlen
Drei Maßnahmen senken das Haftungsrisiko:
- 1.
Interne KI-Richtlinie: Dokumentieren Sie, welche Tools zugelassen sind und welche Prüfschritte obligatorisch sind.
- 2.
Tool-Auswahl mit Bedacht: RAG-basierte Systeme mit verifizierten Quellen reduzieren das Fehlerrisiko erheblich.
- 3.
Schulung: Stellen Sie sicher, dass alle Mitarbeitenden die Grenzen und Risiken der eingesetzten Tools kennen.
KI Haftung Anwalt: Was die KI-Verordnung ändert
Seit dem 2. Februar 2025 gelten die ersten Bestimmungen der KI-Verordnung (EU) 2024/1689. Für Kanzleien sind zwei Aspekte unmittelbar relevant.
Art. 4 KI-VO: KI-Kompetenzpflicht
Anbieter und Betreiber von KI-Systemen müssen sicherstellen, dass ihr Personal über ein ausreichendes Maß an KI-Kompetenz verfügt. Für Kanzleien heißt das: Wer KI nutzt, muss verstehen, wie das System arbeitet, wo Fehlerquellen liegen und wann menschliche Kontrolle erforderlich ist. Eine Schulung ist keine Empfehlung mehr. Sie ist seit Februar 2025 eine Pflicht.
Einstufung juristischer KI
Die meisten juristischen KI-Anwendungen, also Recherchetools, Entwurfsgeneratoren und Zusammenfassungssysteme, fallen nicht unter die Hochrisiko-Kategorie der KI-VO. Aber die allgemeinen Transparenzpflichten gelten. Für die KI Haftung Anwalt bedeutet das: Auch wenn Ihr Tool keine besondere Zulassung braucht, bleiben Ihre berufsrechtlichen Prüfpflichten vollständig bestehen.
Praxis-Checkliste: KI-Halluzinationen in der Kanzlei vermeiden
Wenn Sie das Risiko der KI Haftung Anwalt in Ihrer Kanzlei minimieren möchten, helfen diese sieben Maßnahmen.
1. Tool-Auswahl: RAG vor generativen Modellen
Bevorzugen Sie Systeme, die auf indexierten, verifizierten Rechtsquellen basieren. RAG-Technologie reduziert das Halluzinationsrisiko strukturell, nicht nur kosmetisch. Einen detaillierten Vergleich, wie KI die juristische Recherche in der Kanzlei verändert, finden Sie in unserem separaten Beitrag.
2. Jede Fundstelle prüfen
Gleichen Sie jeden zitierten Paragraphen, jedes Aktenzeichen und jede Rechtsgrundlage gegen eine primäre Quelle ab. Bei Bundesgesetzen ist gesetze-im-internet.de die Referenz. Bei Urteilen sind dejure.org oder juris die Anlaufstellen.
3. Interne KI-Richtlinie einführen
Dokumentieren Sie schriftlich:
- —
Welche Tools sind zugelassen?
- —
Welche Daten dürfen eingegeben werden?
- —
Welche Prüfschritte sind vor der Verwendung obligatorisch?
- —
Wer gibt Ergebnisse frei?
4. Schulung vor dem produktiven Einsatz
Art. 4 KI-VO verlangt KI-Kompetenz. Das bedeutet: Kein Einsatz ohne Grundverständnis für Funktionsweise, Risiken und Grenzen des Tools.
5. Vier-Augen-Prinzip bei Schriftsätzen
Kein KI-generierter Schriftsatz sollte ohne menschliche Zweitprüfung bei Gericht eingereicht werden. Das ist keine Überregulierung. Es ist die konsequente Anwendung des Sorgfaltsmaßstabs.
6. Nutzung dokumentieren
Halten Sie fest, welches Tool Sie für welche Aufgabe eingesetzt haben und wie Sie das Ergebnis geprüft haben. Im Haftungsfall kann diese Dokumentation entscheidend sein.
7. Berufshaftpflicht informieren
Sprechen Sie mit Ihrem Versicherer über Ihren KI-Einsatz. Klären Sie, ob und unter welchen Bedingungen Schäden aus KI-generierten Fehlern gedeckt sind.
Fazit: KI Haftung Anwalt vermeiden, nicht fürchten
Die KI Haftung Anwalt ist kein Argument gegen KI. Sie ist ein Argument für den richtigen Einsatz. Jeder dokumentierte Fall zeigt dasselbe Muster: Nicht die Technologie war das Problem, sondern die fehlende Prüfung.
Die wichtigsten Punkte:
- —
KI-Halluzinationen sind ein strukturelles Problem generativer Sprachmodelle. Sie erfinden Paragraphen, Urteile und Rechtsgrundlagen.
- —
Die Prüfungspflicht nach § 43 BRAO bleibt bestehen, unabhängig vom eingesetzten Werkzeug. Die BRAK bestätigt das im KI-Leitfaden ausdrücklich.
- —
RAG-Technologie reduziert das Halluzinationsrisiko strukturell, weil Antworten nur auf verifizierten, indexierten Rechtsquellen basieren.
- —
Die KI-Verordnung verlangt seit Februar 2025 KI-Kompetenz. Schulung ist keine Option, sondern Pflicht.
- —
Dokumentation Ihres Prüfprozesses schützt im Haftungsfall und gegenüber der Berufshaftpflicht.
Die sicherste Strategie: Setzen Sie auf Tools, die von vornherein auf verifizierten Quellen aufbauen, statt halluzinierte Outputs nachträglich zu korrigieren. Wenn Sie eine Lösung suchen, die 150+ deutsche Bundesgesetze indexiert hat, exakte Paragraphen-Verweise liefert und in der EU gehostet wird, können Sie die Lulius Kanzlei-Suite testen oder direkt die Preise vergleichen. 30 Tage Geld-zurück, keine Mindestlaufzeit.
So wird aus der KI Haftung Anwalt kein Risiko, sondern ein beherrschbarer Teil professioneller Kanzleiarbeit.