KI als Anwalt*in: Was ist erlaubt? Die Leitfäden von BRAK & DAV schaffen Klarheit

Cover Image for KI als Anwalt*in: Was ist erlaubt? Die Leitfäden von BRAK & DAV schaffen Klarheit

BRAK 12/2024 & DAV 07/2025: Zwei Wegweiser für den produktiven KI-Einsatz in Kanzleien

Beide Veröffentlichungen senden dieselbe Grundbotschaft: KI soll genutzt werden – aber gut organisiert. Der BRAK-Leitfaden vom Dezember 2024 verankert die berufsrechtliche Sorgfalt besonders deutlich, vor allem die eigenverantwortliche Endkontrolle anwaltlicher Arbeit. Der DAV-Leitfaden vom Juli 2025 knüpft daran an, räumt jedoch praktische Hürden aus dem Weg und setzt auf einen pragmatisch-risikobasierten Umgang mit Cloud-Diensten und Sicherheitsvorgaben. Zusammengenommen bieten beide Texte eine belastbare Richtschnur für Kanzleien, die Legal-AI im Alltag verlässlich einsetzen wollen.

Im gemeinsamen Kern erkennen beide Leitfäden klar an, dass KI – insbesondere große Sprachmodelle – die Arbeit in Kanzleien spürbar beschleunigen und qualitativ unterstützen kann: bei Recherche, Strukturierung, Entwürfen und in repetitiven Workflows. Gleichzeitig bleiben Halluzinationen, Verzerrungen und Kontextfehler reale Risiken. Deshalb darf KI anwaltliche Eigenleistung nicht ersetzen, sondern unterstützen; am Ende steht stets ein menschlicher Qualitäts- und Plausibilitätscheck. An diesem Punkt setzt vor allem der BRAK-Text seinen Akzent: Die Endkontrolle ist Standard, „human-in-the-loop“ die Regel, nicht die Ausnahme.

Auch beim Geheimnisschutz stimmen beide überein. Externe KI- oder Cloud-Anbieter können eingebunden werden – allerdings nur mit strikter Zugriffsbegrenzung, klarer Zweckbindung und vertraglichen Sicherungen. Kanzleien sollen Daten minimieren, wo möglich pseudonymisieren und sorgfältig auswählen, wem sie was anvertrauen. DSGVO-Compliance wird dabei nicht als unüberwindbare Barriere verstanden, sondern als Gestaltungsauftrag: saubere Rechtsgrundlage, transparente Prozesse, nachvollziehbare technische und organisatorische Maßnahmen.

Der DAV schärft diesen Punkt in der Praxis nach. Er stellt ausdrücklich klar, dass es keine pauschale Pflicht zu besonders aufwendiger Verschlüsselung gibt, wenn dies die Nutzung unverhältnismäßig erschweren würde. Entscheidend sei die Risikobewertung im Einzelfall und ein angemessenes, nicht überzogenes Schutzniveau. Ebenso bemerkenswert ist seine Haltung zum Mandantenwunsch: Verlangt ein Mandant ausdrücklich, ein KI-Ergebnis ohne weitere anwaltliche Prüfung zu verwerten, ist das nach DAV-Auffassung zulässig. Das ist keine Absage an Sorgfalt, sondern eine Betonung von Autonomie und Vertragsfreiheit – freilich mit der impliziten Erwartung, dass Kanzleien solche Fälle dokumentieren und verantwortlich steuern. Der BRAK-Leitfaden formuliert hier zurückhaltender und hält die Endkontrolle als Regelfall hoch.

Ein weiterer gemeinsamer Rahmen ist die EU-KI-Verordnung. Für Kanzleien sind vor allem zwei Zeitmarken relevant: Ab 2. Februar 2025 rückt die KI-Kompetenz in den Vordergrund – Kanzleien brauchen geschulte Mitarbeitende, klare interne Regeln und dokumentierte Prozesse. Ab 2. August 2026 greifen Transparenzpflichten bei Veröffentlichungen KI-generierter Inhalte zur Information der Öffentlichkeit. Zugleich betonen beide Veröffentlichungen, dass typische Kanzlei-Anwendungen in der Regel keine Hochrisiko-KI darstellen; gleichwohl sollte geprüft werden, ob spezielle Konstellationen aus dem Rahmen fallen.

Was bedeutet das konkret für den Alltag? Kanzleien profitieren am meisten, wenn sie KI nicht „nebenbei“ einsetzen, sondern standardisieren: mit einer leicht verständlichen KI-Policy, klaren Rollen- und Rechten, Leitlinien für Daten und Prompts, definierten Freigabestufen und verlässlichem Logging. Vertraulichkeit wird dabei zum Default – EU/EWR-Hosting bevorzugt, Zugriff nach dem Need-to-know-Prinzip, AV-Verträge in der Schublade, Daten nur so umfangreich wie nötig. Datenschutz bleibt handhabbar, wenn man ihn pragmatisch denkt: Pseudonymisierung dort, wo sinnvoll; ansonsten saubere Anbieterwahl, transparente Verfahren und ein Auge auf Speicherfristen. Und bei der Risiko­klassifizierung hilft Nüchternheit: Die meisten Legal-AI-Workflows sind nicht hochriskant, verdienen aber klare Verantwortlichkeiten und dokumentierte Kontrollen.

Wie PyleHound Ihnen als sichere KI für Anwälte helfen kann, können Sie hier nachlesen.

Fazit: Der BRAK-Leitfaden sorgt für den stabilen Rahmen – Berufsethos, Endkontrolle, Geheimnisschutz –, der DAV-Leitfaden konkretisiert ihn risikobasiert und praxistauglich, indem er Überforderungen abbaut und eine risikobasierte, alltagstaugliche Linie formuliert. Wer diese beiden Perspektiven zusammennimmt, erhält ein konsistentes Bild: KI gehört in die Kanzlei, solange sie als Werkzeug in verantwortlichen, gut organisierten Prozessen eingesetzt wird.

Zu den beiden Stellungnahmen: BRAK 12/2024 & DAV 07/2025