← Alle Artikel
Legal Tech··13 Min. Lesezeit

EU AI Act für Kanzleien: Was Anwälte ab August 2026 beachten müssen

MK

Prof. Dr. Markus Klein

Legal Tech Researcher

Rechtsanwältin Dr. Claudia Berger scrollt am Montagmorgen durch ihren Newsletter. Eine Meldung bleibt hängen: "EU AI Act, zentrale Pflichten ab 2. August 2026 wirksam." Sie rechnet kurz nach. Vier Monate. Ihre Kanzlei in Frankfurt nutzt seit einem Jahr ein KI-Tool für Recherche und Vertragsentwürfe. Drei Anwält*innen, zwei Mitarbeiterinnen. Alle arbeiten täglich mit dem System. Eine interne KI-Richtlinie? Existiert nicht. Ein Schulungsnachweis? Keiner. Art. 4 der KI-Verordnung, die KI-Kompetenzpflicht? Gilt seit Februar 2025. Seit über einem Jahr.

Dr. Berger ist kein Einzelfall. Laut dem Wolters Kluwer Future Ready Lawyer Report 2026 setzen 63,6 % der deutschen Kanzleien bereits KI ein. Global nutzen 92 % der befragten Anwält*innen mindestens ein KI-Tool. Gleichzeitig nennen 58,3 % fehlende KI-Routine als größte Hürde. Die Technologie ist da. Die regulatorische Vorbereitung fehlt.

Dieser Artikel zeigt Ihnen als Anwält*in konkret, was der EU AI Act für Ihre Kanzlei bedeutet: welche Pflichten bereits gelten, was ab August 2026 hinzukommt und wie Sie sich mit einer klaren Checkliste vorbereiten. Keine Panik, aber auch kein Aufschieben.

Wenn Sie KI bereits in Ihrer Kanzlei nutzen und sicherstellen möchten, dass Ihr System die Compliance-Anforderungen erfüllt, testen Sie die Lulius Kanzlei-Suite, die von Grund auf für regulatorische Nachvollziehbarkeit konzipiert wurde.

Timeline der KI-Verordnung: Was gilt wann?

Die Verordnung (EU) 2024/1689, besser bekannt als EU AI Act, trat am 1. August 2024 in Kraft. Die Umsetzung erfolgt gestaffelt. Für Kanzleien sind vier Daten relevant.

2. Februar 2025: Grundlagen und Verbote (bereits in Kraft)

Seit diesem Datum gelten die allgemeinen Bestimmungen (Kapitel I) und die Verbote (Kapitel II) der KI-Verordnung. Verboten sind etwa manipulative KI-Systeme, die unterschwellige Techniken einsetzen, und Social-Scoring-Anwendungen. Für die anwaltliche Praxis ist jedoch Art. 4 der entscheidende Punkt: Die KI-Kompetenzpflicht gilt ab diesem Datum für alle Betreiber von KI-Systemen, also auch für Kanzleien.

2. August 2025: Hochrisiko-Regelungen, Phase I

Ab diesem Zeitpunkt gelten die Anforderungen an Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (General Purpose AI, GPAI) nach Kapitel V. Für Kanzleien als Anwender ändert sich in dieser Phase wenig direkt. Aber: Ihre Anbieter müssen ab jetzt strengere Transparenzpflichten erfüllen.

2. Februar 2026: Verbotserweiterungen

Weitere Verbote treten in Kraft, darunter Einschränkungen für Emotionserkennungssysteme am Arbeitsplatz und biometrische Echtzeit-Fernidentifizierung. Diese Verbote betreffen Kanzleien nur am Rande, sind aber Teil des regulatorischen Gesamtbilds.

2. August 2026: Zentrale Pflichten treten in Kraft

Dies ist das Datum, auf das Dr. Berger und alle Kanzleien hinarbeiten müssen. Ab jetzt gelten die vollständigen Transparenzpflichten nach Art. 50, die Hochrisiko-Klassifizierung nach Art. 6 und die zugehörigen Pflichten für Betreiber von Hochrisiko-KI-Systemen. Die AI Act Compliance für Kanzleien wird ab diesem Tag überprüfbar.

Art. 4 KI-Kompetenzpflicht: Was Kanzleien jetzt tun müssen

Art. 4 der KI-Verordnung ist kurz, aber weitreichend. Er verpflichtet Anbieter und Betreiber von KI-Systemen, "ausreichende KI-Kompetenz bei ihrem Personal und anderen Personen" sicherzustellen, "die in ihrem Auftrag KI-Systeme betreiben und nutzen." Für Kanzleien bedeutet das: Jede Person, die ein KI-Tool bedient, braucht nachweisbare Kompetenz.

Was "KI-Kompetenz" in der Kanzlei bedeutet

Die Verordnung definiert den Begriff bewusst offen. Gemeint sind Fähigkeiten, Kenntnisse und Verständnis, die es ermöglichen, KI-Systeme sachkundig einzusetzen und sich der Chancen und Risiken bewusst zu sein. Für Anwält*innen konkretisiert sich das in drei Bereichen.

Erstens: Verständnis der Funktionsweise. Wer ein KI-Recherche-Tool nutzt, muss grundlegend verstehen, wie es Ergebnisse generiert. Die Unterschiede zwischen einem RAG-basierten System, das auf indexierte Rechtsquellen zugreift, und einem generativen Sprachmodell, das Texte statistisch vorhersagt, sind keine akademische Feinheit. Sie bestimmen, wie zuverlässig das Ergebnis ist und wie Sie es prüfen müssen.

Zweitens: Bewusstsein für Grenzen und Risiken. Wer KI-generierte Vertragsentwürfe verwendet, ohne die Grenzen des Systems zu kennen, handelt nicht nur berufsrechtlich problematisch, sondern verstößt jetzt auch gegen Art. 4. Dazu gehört das Wissen um Halluzinationsrisiken bei KI-generierten Rechtstexten und die Pflicht zur eigenständigen Prüfung.

Drittens: Angemessene Schulung. Die Kompetenz muss nachweisbar sein. Das bedeutet Schulungsnachweise, dokumentierte Einweisungen oder zertifizierte Fortbildungen. Für den Nachweis empfiehlt die BRAK in ihrem KI-Leitfaden vom Dezember 2024 eine Kombination aus interner Dokumentation und externer Fortbildung.

Art. 4 gilt bereits, und zwar für alle

RA Thomas M. in Hamburg erfuhr das auf dem harten Weg. Als Einzelanwalt hatte er ein KI-Tool für Schriftsatzentwürfe eingeführt, sein Team von zwei Rechtsanwaltsfachangestellten aber nicht formal geschult. Bei einer Mandantenbeschwerde über fehlerhafte Fristberechnungen im KI-Output stellte die Kammer fest, dass weder eine Einweisung noch eine Nutzungsrichtlinie dokumentiert war. Die Beschwerde blieb folgenlos, aber die Kammer wies auf Art. 4 hin. Thomas M. hat inzwischen ein Schulungskonzept erstellt und dokumentiert. Es hätte ihn einen Nachmittag gekostet, es von Anfang an zu tun.

Hochrisiko oder nicht? Wie juristische KI eingestuft wird

Eine der häufigsten Fragen zur EU KI-Verordnung für Rechtsanwälte betrifft die Hochrisiko-Einstufung. Art. 6 der Verordnung definiert, welche KI-Systeme als hochriskant gelten. Die gute Nachricht: Die meisten KI-Anwendungen in Kanzleien fallen nicht darunter.

Was als Hochrisiko gilt (und was nicht)

Art. 6 Abs. 2 verweist auf Anhang III der Verordnung. Dort sind die Bereiche aufgelistet, in denen KI-Systeme als hochriskant eingestuft werden. Für den juristischen Bereich relevant ist vor allem Nr. 8: "Rechtspflege und demokratische Prozesse." Erfasst sind KI-Systeme, die von Justizbehörden eingesetzt werden, um Fakten und Recht zu erforschen und auszulegen oder das Recht auf einen Einzelfall anzuwenden.

Aber: Kanzleien sind keine Justizbehörden. Ein KI-Recherche-Tool, das Anwält*innen bei der Vorbereitung unterstützt, ein Tool, das Vertragsentwürfe erstellt, ein Tool, das Schriftsätze zusammenfasst: All das fällt in der Regel nicht unter die Hochrisiko-Kategorie. Entscheidend ist, dass die anwaltliche Prüfung und Verantwortung erhalten bleibt.

Die Transparenzpflichten gelten trotzdem

Auch wenn Ihre KI-Anwendungen nicht hochriskant sind, greifen ab August 2026 die allgemeinen Transparenzpflichten nach Art. 50. Kanzleien, die KI-Systeme nutzen, die direkt mit Mandant*innen interagieren, etwa Chatbots für die Erstaufnahme, müssen offenlegen, dass ein KI-System im Einsatz ist. Bei KI-generierten Texten, die ohne eigenständige anwaltliche Überarbeitung weitergegeben werden, besteht ebenfalls eine Kennzeichnungspflicht.

Hier liegt ein Compliance-Vorteil: Wenn Sie als Anwält*in KI-generierte Inhalte eigenständig prüfen, verifizieren und unter Ihrer fachlichen Verantwortung freigeben, entfällt die Kennzeichnungspflicht nach Art. 50 Abs. 2. Die menschliche Überprüfung, die das Berufsrecht ohnehin verlangt, wird zum regulatorischen Schutzschild.

DAV-Stellungnahme 32/2025: Praxishinweise

Der Deutsche Anwaltverein (DAV) hat in seiner Stellungnahme 32/2025 vom Juli 2025 Leitlinien für den KI-Einsatz in der täglichen Kanzleipraxis veröffentlicht. Die Kernbotschaft: KI-Tools für Recherche, Entwürfe und Zusammenfassungen sind regulatorisch unproblematisch, solange die anwaltliche Eigenverantwortung gewahrt bleibt. Der DAV empfiehlt eine klare Dokumentation der eingesetzten Systeme und der Prüfprozesse.

EU AI Act Kanzlei: Was ab August 2026 konkret gilt

Ab dem 2. August 2026 müssen Kanzleien drei Pflichtenbereiche beachten: Transparenz, Dokumentation und Information. Die Details variieren je nach Einstufung des KI-Systems, aber die Grundanforderungen betreffen jede Kanzlei, die KI einsetzt.

Transparenzpflichten nach Art. 50

Wenn KI-Systeme unmittelbar mit natürlichen Personen interagieren, muss der Einsatz offengelegt werden. Für Kanzleien betrifft das vor allem:

  • Chatbots und automatisierte Erstaufnahme: Mandant*innen müssen erfahren, dass sie mit einem KI-System kommunizieren.

  • KI-generierte Dokumente ohne anwaltliche Überarbeitung: Wenn ein KI-Entwurf ungeprüft weitergegeben wird (was berufsrechtlich ohnehin fragwürdig wäre), muss er als KI-generiert gekennzeichnet werden.

  • Deep-Fake- und synthetische Inhalte: Falls KI-generierte Bild- oder Audioinhalte in der Mandantenkommunikation verwendet werden, greift die Kennzeichnungspflicht.

Dokumentationspflichten

Betreiber von KI-Systemen müssen laut Art. 26 Aufzeichnungen über den Einsatz führen. Für Kanzleien empfiehlt sich:

  • Ein Verzeichnis aller eingesetzten KI-Systeme (Tool, Anbieter, Einsatzbereich)

  • Dokumentation der Schulungsmaßnahmen (Art. 4 Compliance)

  • Aufzeichnung von Prüfprozessen bei KI-generierten Arbeitsergebnissen

  • Protokollierung relevanter Vorfälle (fehlerhafte Ergebnisse, Ausfälle)

Informationspflichten gegenüber Mandant*innen

Die allgemeine anwaltliche Sorgfaltspflicht und die KI-Verordnung zusammen ergeben: Mandant*innen sollten über den Einsatz von KI-Systemen in ihrer Sache informiert werden. Das gilt besonders dann, wenn KI-Ergebnisse in die anwaltliche Analyse einfließen. Die BRAK empfiehlt, den KI-Einsatz in den Mandatsvertrag oder die Kanzlei-AGB aufzunehmen.

Für die sichere Umsetzung dieser Anforderungen ist es hilfreich, auf KI-Systeme zu setzen, die DSGVO-konforme Datenverarbeitung und nachvollziehbare Quellverweise bieten.

5-Punkte-Checkliste: AI Act Compliance für Ihre Kanzlei

Ob Solo-Kanzlei oder mittelständische Sozietät: Diese fünf Schritte bringen Ihre AI Act Compliance auf den aktuellen Stand.

1. KI-Inventar erstellen

Listen Sie alle KI-Systeme auf, die in Ihrer Kanzlei eingesetzt werden. Nicht nur die offensichtlichen: Auch KI-Funktionen in bestehenden Kanzleisoftware-Produkten (automatische Textvorschläge, Suchassistenten, Dokumentenanalyse) zählen. Dokumentieren Sie für jedes System: Name, Anbieter, Einsatzbereich, Nutzerkreis.

2. Risikoklassifizierung durchführen

Prüfen Sie für jedes System, ob es unter die Hochrisiko-Kategorie nach Art. 6 fällt. Für die meisten Kanzlei-Anwendungen wird die Antwort "Nein" lauten. Aber dokumentieren Sie die Prüfung. Die Beweislast liegt beim Betreiber. Bei Unsicherheiten hilft ein Blick in die Leitlinien der Chancen und Grenzen von KI im Recht.

3. KI-Kompetenz schulen und dokumentieren (Art. 4)

Organisieren Sie Schulungen für alle Mitarbeitenden, die KI-Systeme nutzen. Der Umfang richtet sich nach der Rolle: Anwält*innen benötigen tieferes Verständnis als Verwaltungskräfte, die nur einfache Suchfunktionen nutzen. Dokumentieren Sie jede Schulung mit Datum, Inhalt, Teilnehmer*innen und Umfang.

4. Interne KI-Nutzungsrichtlinie erstellen

Definieren Sie, wie KI-Systeme in Ihrer Kanzlei eingesetzt werden dürfen. Mindestinhalt:

5. Transparenz- und Informationsprozesse aufsetzen

Bereiten Sie Standardtexte für die Mandanteninformation vor. Aktualisieren Sie Ihren Mandatsvertrag oder Ihre Kanzlei-AGB. Richten Sie Prozesse für die Kennzeichnung KI-generierter Inhalte ein, falls diese nicht anwaltlich überprüft werden.

Bußgeldrahmen als Motivation: Art. 99 der Verordnung sieht Bußgelder von bis zu 35 Millionen EUR oder 7 % des weltweiten Jahresumsatzes vor. Die tatsächlichen Sanktionen werden bei kleinen Kanzleien vermutlich moderater ausfallen, aber die Verordnung lässt den Aufsichtsbehörden bewusst Spielraum.

Warum RAG-basierte Systeme einen Compliance-Vorteil haben

RA Anna K. in München stand im März 2026 vor einer Entscheidung. Ihre Kanzlei mit vier Anwält*innen nutzte ein generisches Sprachmodell für juristische Recherche. Die Art. 4-Schulung hatte ein Problem offengelegt: Niemand im Team konnte nachvollziehen, woher die Ergebnisse stammten. Quellenangaben waren vage oder fehlten. Die Prüfpflicht nach dem AI Act erforderte aber genau das: nachvollziehbare Ergebnisse.

Anna K. wechselte zu einem RAG-basierten System. Der Unterschied war sofort messbar. Jede Analyse enthielt exakte Verweise auf die zugrunde liegenden Paragraphen. Die Ergebnisse basierten auf indexierten, verifizierten Rechtsquellen. Der Prüfaufwand sank von durchschnittlich 45 Minuten pro Analyse auf 15 Minuten, weil die Nachvollziehbarkeit direkt gegeben war.

Drei Compliance-Vorteile von RAG-Systemen

Nachvollziehbarkeit: RAG-Systeme (Retrieval Augmented Generation) greifen auf konkrete, indexierte Quellen zu. Jede Aussage lässt sich auf einen bestimmten Paragraphen oder eine bestimmte Rechtsquelle zurückführen. Das macht die Prüfpflicht nach Art. 4 und die Dokumentationspflicht nach Art. 26 deutlich einfacher. Sie können Ihren Mandant*innen und der Aufsichtsbehörde zeigen, auf welcher Grundlage ein Ergebnis entstanden ist.

Verifizierbarkeit: Wenn ein KI-System "§ 242 BGB, Treu und Glauben" zitiert, können Sie das sofort überprüfen. Bei einem generativen System, das Textbausteine ohne Quellenangabe produziert, müssen Sie die gesamte Rechtsgrundlage selbst recherchieren. Für die anwaltliche Sorgfaltspflicht und die Anforderungen des AI Act ist verifizierbare KI ein klarer Vorteil.

Geringeres Halluzinationsrisiko: Generative Sprachmodelle ohne Quellenverankerung produzieren mit einer gewissen Wahrscheinlichkeit erfundene Paragraphen, falsche Normen oder fehlerhafte Verweise. RAG-Systeme, die auf vollständig indexierte Rechtsquellen zugreifen, reduzieren dieses Risiko erheblich. Weniger Halluzinationen bedeuten weniger Haftungsrisiko, weniger Prüfaufwand und eine robustere Compliance-Position.

Die Lulius Kanzlei-Suite basiert auf RAG-Technologie mit über 150 indexierten Bundesgesetzen. Jeder Paragraphen-Verweis ist nachvollziehbar und prüfbar. Für Kanzleien, die ihre AI Act Compliance vorausschauend aufbauen möchten, ist Nachvollziehbarkeit kein Nice-to-have. Sie ist die Grundlage.

Fazit: Der EU AI Act als Chance für vorbereitete Kanzleien

Der EU AI Act stellt Kanzleien vor neue Pflichten. Aber keine unlösbaren. Die wichtigsten Punkte:

  • Art. 4 gilt seit Februar 2025: Die KI-Kompetenzpflicht ist keine Zukunftsmusik. Schulen Sie Ihr Team jetzt und dokumentieren Sie es.

  • Die meisten Kanzlei-KI-Anwendungen sind nicht hochriskant: Recherche-Tools, Entwurfsassistenten und Zusammenfassungs-Tools fallen in der Regel nicht unter Art. 6.

  • Transparenz und Dokumentation sind Pflicht: Ab August 2026 müssen Sie nachweisen können, welche KI-Systeme Sie nutzen und wie Sie die Ergebnisse prüfen.

  • RAG-basierte Systeme erleichtern Compliance: Nachvollziehbare Quellen reduzieren Prüfaufwand, Haftungsrisiko und Dokumentationsaufwand.

  • Die Bußgelder sind hoch: Bis zu 35 Millionen EUR oder 7 % des weltweiten Jahresumsatzes. Auch wenn die Aufsichtspraxis noch unklar ist, sollte die Vorbereitung jetzt beginnen.

Kanzleien, die den AI Act nicht als Bedrohung, sondern als Qualitätsrahmen verstehen, werden profitieren. Wer heute nachvollziehbare, dokumentierte und kompetent gesteuerte KI einsetzt, erfüllt nicht nur die Verordnung. Er oder sie setzt den Standard für eine moderne, verantwortungsvolle Kanzleiführung.

Hinweis: Lulius bietet rechtliche Ersteinschätzungen, keine Rechtsberatung im Sinne des RDG.