Ohne Berufsrechtsrisiko: Künstliche Intelligenz für Anwälte
Die juristische Arbeitswelt steht vor einer entscheidenden Veränderung. Während Ihre Mandanten zunehmend schnellere und präzisere Ergebnisse erwarten, wachsen die Datenmengen und die Komplexität der Mandate kontinuierlich. Die Frage ist nicht mehr, ob Sie KI einsetzen sollten – sondern wie schnell Sie den Anschluss finden.
Rechtssicherheit durch die DAV-Stellungnahme
Die im Juli 2025 veröffentlichte Stellungnahme des Deutschen Anwaltvereins schafft die lang ersehnte Klarheit: Der Einsatz von KI- und Cloud-Diensten in Ihrer Kanzlei ist rechtlich abgesichert.
Die Kernaussagen sind eindeutig:
- Verschlüsselte, automatisierte Datenverarbeitung ohne menschliche Einsichtnahme stellt kein Offenbaren im Sinne des § 203 StGB dar
- Cloud- und KI-Dienste von Anbietern wie Google oder Microsoft dürfen genutzt werden – mit entsprechenden Verträgen und Verschlüsselung
- Eine Informationspflicht gegenüber Mandanten besteht nur bei entscheidungsrelevanten juristischen Bewertungen durch die KI
Diese rechtliche Klarheit beseitigt die letzten Hürden. Sie können KI für die Dokumentenanalyse, Vertragserstellung und vorbereitende Tätigkeiten einsetzen, ohne berufsrechtliche Konsequenzen fürchten zu müssen.
Vom theoretischen Rahmen zur praktischen Exzellenz
Die wahre Stärke von KI-Tools zeigt sich in der täglichen Praxis. Nehmen Sie die Due Diligence als Beispiel: Statt stundenlang durch Dokumentenberge zu wühlen, analysieren moderne KI-Systeme wie PyleHound Ihre Unterlagen semantisch. Das System versteht inhaltliche Zusammenhänge, auch wenn die exakten Suchbegriffe nicht im Text vorkommen.
Konkret bedeutet das für Sie:
- Sofortiger Überblick über neue Akten und Mandate
- Präzise Risikoanalysen auf Basis Ihrer spezifischen Dokumente
- Strukturierte Berichte mit direkten Quellenverweisen
- Zeitersparnis von mehreren Stunden pro Mandat
Der entscheidende Vorteil: Die KI kombiniert allgemeines juristisches Wissen mit den konkreten Informationen aus Ihren Dokumenten. Sie erhalten maßgeschneiderte Analysen, die auf Ihre spezifische Situation zugeschnitten sind.
Ihre nächsten Schritte zur KI-Integration
Die rechtlichen Rahmenbedingungen sind geklärt. Die Technologie ist ausgereift. Ihre Wettbewerber setzen bereits KI ein. Jetzt liegt es an Ihnen, den entscheidenden Schritt zu gehen.
Beginnen Sie mit drei einfachen Maßnahmen:
-
Prüfen Sie Ihre bestehenden Prozesse: Wo verbringen Sie und Ihr Team die meiste Zeit mit repetitiven Aufgaben?
-
Starten Sie mit einem konkreten Anwendungsfall: Wählen Sie ein spezialisiertes Tool für einen klar definierten Bereich – etwa die Dokumentenanalyse bei Due Diligence-Prozessen.
-
Setzen Sie auf verlässliche Partner: Arbeiten Sie mit Anbietern, die die Besonderheiten der juristischen Arbeit verstehen und höchste Sicherheitsstandards garantieren.
Die Zukunft der Anwaltschaft ist digital – aber sie bleibt juristisch präzise, verlässlich und auf höchstem Niveau. Mit den richtigen Tools sparen Sie nicht nur Zeit, sondern steigern die Qualität Ihrer Arbeit. Der Ball liegt in Ihrem Spielfeld.
Transkript des Videos
Hinweis: Dieses Transkript wurde maschinell erstellt und kann Fehler enthalten.
Dr. Franka Becker
Mein Name ist Dr. Franka Becker. Nach vielen Jahren als General Counsel begleite ich heute als Partnerin bei Gunnercook Unternehmen in allen Fragen des Wirtschafts- und Technologierechts und habe zudem ein Legal-Tech-Start-up mitgegründet. Damit sind wir bereits direkt beim Thema.
In der anwaltlichen Arbeit erleben wir gerade einen entscheidenden Wendepunkt. Künstliche Intelligenz (KI) ist längst kein bloßer Trend mehr, sondern entwickelt sich zu einer unabdingbaren Unterstützung. Angesichts steigender Datenmengen, komplexer Mandate und damit einhergehender, wachsender Erwartungen der Mandanten ist der Einsatz von KI entscheidend, um als Kanzlei wettbewerbsfähig zu bleiben.
Die Stellungnahme des Deutschen Anwaltvereins (DAV), die im Juli 2025 veröffentlicht wurde, ist also noch recht aktuell. Sie wurde von den Ausschüssen für Berufsrecht und Informationsrecht des DAV erarbeitet, mit dem klaren Ziel, Rechtssicherheit für den Einsatz von KI- und Cloud-Diensten in der Anwaltschaft zu schaffen.
Die Kernaussagen lassen sich klar und knapp zusammenfassen:
- Eine verschlüsselte, automatisierte Datenverarbeitung ohne menschliche Einsichtnahme stellt kein Offenbaren im Sinne des § 203 StGB dar.
- Daran anknüpfend ist eine Verschwiegenheitsverpflichtung nach § 203 StGB nur dann erforderlich, wenn es zu einer tatsächlichen Offenlegung im Klartext kommt. Eine solche Offenlegung liegt eben nicht vor, solange die Daten ausschließlich verschlüsselt und automatisiert verarbeitet werden und kein Mensch beim Dienstleister Einsicht in die Daten nimmt.
Besonders die Nutzung von Diensten wie Google wird oft kritisch gesehen. Die Stellungnahme stellt jedoch klar: Cloud- und KI-Dienste von Anbietern wie Google oder Microsoft dürfen genutzt werden. Voraussetzung dafür sind ein entsprechender Vertrag, eine Verschwiegenheitsvereinbarung und ein adäquater Zugriffsschutz. Dies ist oft einfacher umzusetzen als gedacht, denn die Allgemeinen Geschäftsbedingungen (AGB), die man beispielsweise bei der Nutzung von Googles LLMs (Large Language Models) akzeptiert, enthalten bereits entsprechende Verschwiegenheitsverpflichtungen.
Die Stellungnahme betont zudem die Wichtigkeit eines kontrollierten Zugriffsschutzes. Daten müssen sowohl transport- als auch serverseitig verschlüsselt sein. Ein Zugriff durch den Dienstleister darf nur erfolgen, wenn er technisch erforderlich und flüchtig ist. Zum Vergleich: Das Risiko eines unbefugten Zugriffs ist beim Versand einer herkömmlichen E-Mail potenziell höher.
- Selbstverständlich darf keine dauerhafte Speicherung der eingegebenen Daten erfolgen und die Modelle dürfen nicht mit diesen Daten trainiert werden. Das wäre der schlimmste Fall: Man gibt Mandantendaten ein, das Modell lernt daraus, und ein anderer Nutzer erhält eine Antwort, die auf den vertraulichen Informationen des vorherigen Mandats basiert. Die AGB der Anbieter stellen jedoch in der Regel sicher, dass die eingegebenen Daten nicht für das Training der KI verwendet werden.
Eine weitere wichtige Frage ist, ob Mandanten über den Einsatz von KI informiert werden müssen. Hier gibt es grundsätzlich zwei Lager. Einige Kanzleien gehen proaktiv damit um und werben offensiv mit dem Einsatz moderner KI-Tools. Andere Kanzleien sind zurückhaltender, etwa aus Sorge, konservativere Mandanten zu verunsichern. Die gute Nachricht für diese ist: Eine Informationspflicht besteht nur dann, wenn die KI eine entscheidungsrelevante juristische Bewertung vornimmt.
Wird KI beispielsweise genutzt, um große Dokumentenmengen zu durchsuchen oder eine erste Vertragsstruktur zu entwerfen, handelt es sich nicht um eine solche entscheidungsrelevante Bewertung. Anders könnte es aussehen, wenn die KI zur Erarbeitung von Klageschriften mit konkreten Argumentationsstrukturen eingesetzt wird – hier bewegt man sich in einer Grauzone. Grundsätzlich gilt aber: Für vorbereitende und unterstützende Tätigkeiten ist keine explizite Information des Mandanten erforderlich.
Dies sollte jedoch keine reine Vorlesung zu § 203 StGB sein. Vielmehr möchten wir die Kernbotschaft der DAV-Stellungnahme transportieren: KI ist im juristischen Alltag angekommen. Die rechtlichen Rahmenbedingungen sind nun klarer, sodass wir keine unüberwindbaren Hürden mehr fürchten müssen. Der Ball liegt jetzt in unserem Spielfeld; es liegt in unserer Verantwortung, diese Technologien sinnvoll zu implementieren. Die Frage ist also nicht mehr ob, sondern wie wir anfangen. Um das zu beleuchten, habe ich meinen Kollegen Dr. Sebastian Silberzahn mit ins Boot geholt.
Dr. Sebastian Silberzahn
Ich bin Legal Counsel und arbeite inhouse in der Tech-Branche. Seit der Hype um die generative KI begann, wollten bei uns alle Abteilungen – von Marketing bis Sales – sofort diverse KI-Tools einsetzen. Da stellte sich mir natürlich die Frage: Kann und sollte ich KI ebenfalls für meine juristische Arbeit nutzen? Und wenn ja, wie?
Anfangs fiel es mir schwer, kreative Anwendungsfälle für meine juristische Tätigkeit zu finden. Mein Hauptproblem war die Effizienz: Der Aufwand, der KI einen Sachverhalt so detailliert zu erklären, dass sie einen brauchbaren Vertragsentwurf liefert, schien größer als die Zeitersparnis. Die Anweisungen zu formulieren und anschließend alles zu kontrollieren, dauerte gefühlt länger, als den Vertrag direkt selbst zu schreiben.
Glücklicherweise haben sich seitdem sowohl die Fähigkeiten der KI als auch mein Verständnis für das richtige „Prompting“ – also die Formulierung von Anweisungen – deutlich weiterentwickelt. Ich möchte dies an einem konkreten Beispiel demonstrieren. Vor einigen Wochen wollten wir Nutzerinterviews durchführen, um Feedback zu neuen Features unseres Tools zu erhalten. Da es dabei um vertrauliche Informationen ging, benötigte ich eine Vertraulichkeitsvereinbarung (NDA).
Wenn ich ChatGPT nun die simple Anweisung gebe: „Ich brauche ein NDA für ein Nutzerinterview“, ist das Ergebnis sehr dürftig und nicht wirklich hilfreich. Das waren genau die Art von Ergebnissen, die mich anfangs zweifeln ließen.
Hier ist es entscheidend zu verstehen, wie KI funktioniert. Ein großes Sprachmodell (LLM) verfügt über eine riesige Menge an Informationen, aber es hat keinen Kontext zu meiner spezifischen Anfrage. Es weiß nicht, was genau ich will. Als Juristen müssen wir das im Hinterkopf behalten und der KI den notwendigen Kontext liefern.
Wenn ich meine Anweisung (Prompt) jedoch überarbeite, gehe ich von der Annahme aus, dass die KI nichts über meine Rolle oder den Sachverhalt weiß. Ich muss ihr zuerst sagen, dass sie als Jurist agieren soll. Ähnlich wie bei einem Briefing für einen neuen Mitarbeiter im Team, gebe ich zunächst Kontext, erkläre die inhaltlichen Anforderungen (z. B. DSGVO-Relevanz) und formuliere dann eine ganz konkrete Arbeitsanweisung.
Mit diesem detaillierten Prompt sieht das Ergebnis deutlich besser aus. Ich habe die KI zunächst gebeten, nur eine Gliederung mit Überschriften zu erstellen. Das erlaubt mir, die Struktur schnell zu prüfen und anzupassen, anstatt sofort einen drei Seiten langen Volltext lesen und korrigieren zu müssen. Wenn die Gliederung passt, kann ich sie bitten, diese auszuformulieren, und erhalte so ein sehr viel hilfreicheres Ergebnis.
Ich finde es hilfreich, mir die KI wie einen sehr fähigen, aber unerfahrenen juristischen Mitarbeiter oder Associate vorzustellen. Dieser Mitarbeiter hat das theoretische Wissen, aber ihm fehlt der spezifische Kontext zum Mandat und meine Erfahrung. Ich muss ihm diese Informationen bewusst als Kontext mitgeben. Das Gute daran ist: Die Qualität der Ergebnisse steigt mit meiner eigenen Erfahrung im Umgang mit der KI. Die Nutzbarkeit der KI wird also durch meine Seniorität als Anwender besser, nicht nur durch die Weiterentwicklung der KI selbst.
Dr. Franka Becker
Sebastian hat ein Beispiel gezeigt, bei dem ein Dokument von Grund auf neu erstellt wird. Ein häufigeres Problem in unserem Alltag ist jedoch der Umgang mit einem chaotischen, dokumentenlastigen Umfeld, in dem wir schnell Klarheit, Struktur und Antworten benötigen. An dieser Stelle kann ein Tool wie PyleHound helfen.
Stellen wir uns folgenden Fall vor: Man bekommt eine neue Akte auf den Tisch und muss sich schnell einen Überblick verschaffen. In unserem fiktiven Szenario geht es um das Unternehmen FITBOX, eine App zur Verbesserung von Gesundheit und Fitness, die entsprechend viele sensible Gesundheitsdaten ihrer Nutzer speichert. FITBOX soll von einem US-Konzern gekauft werden, und wir sind für die Due Diligence im Bereich Datenschutz zuständig.
Ich habe eine Reihe von relevanten Dokumenten angefordert und möchte mir nun einen ersten Überblick verschaffen, welche Informationen zum Thema Datenschutz und Datensicherheit in diesen Unterlagen enthalten sind.
Die Dokumente liegen auf Englisch vor, meine Anfrage an das Tool stelle ich aber auf Deutsch, was problemlos funktioniert. PyleHound führt eine semantische Suche durch. Das bedeutet, es erkennt inhaltliche Zusammenhänge, auch wenn die exakten Suchbegriffe nicht wörtlich im Text vorkommen. Das ist die große Stärke dieser Technologie.
Das System zeigt an, ob alle Dokumente erfolgreich verarbeitet wurden. So hat man die Sicherheit, dass alle Inhalte in die Analyse einbezogen wurden. Der Vorteil bei der Arbeit mit einem solchen Tool ist, dass es den Kontext direkt aus den hochgeladenen Dokumenten bezieht. Es kombiniert also das allgemeine Wissen seines Sprachmodells mit den spezifischen Informationen aus unserem Fall, ohne dass wir diesen Kontext langwierig per Prompt erklären müssen.
Das Tool zeigt nun die gefundenen Textabschnitte an und bewertet die Relevanz der Übereinstimmung. Man kann von hier aus direkt in die Quelldokumente springen, um sich die entsprechende Textstelle im Originalkontext anzusehen.
Das Beste daran ist, dass ich nun direkt mit den Inhalten dieser Dokumente „chatten“ kann. Ich kann das System bitten, mir eine erste Analyse der Datenschutzrisiken zu erstellen. PyleHound kombiniert dabei sein allgemeines Wissen über Datenschutzrisiken mit den konkreten Informationen, die es in den von mir hochgeladenen Dokumenten gefunden hat.
Das Ergebnis ist eine erste Einschätzung mit direkten Verweisen auf die jeweiligen Quelldokumente. In unserem fiktiven Fall scheint die Datenschutz-Compliance von Fitbox recht gut zu sein. Dies soll aber nur als Beispiel dienen, um die Möglichkeiten aufzuzeigen. Ich könnte nun weiterführende Fragen stellen, mir einen Entwurf für einen Due-Diligence-Bericht erstellen lassen oder das System anweisen, mir gezielt die Schwachstellen und Lücken in der Dokumentation aufzuzeigen. Der Kreativität sind hier kaum Grenzen gesetzt.
Dieser Artikel basiert auf dem Video unseres Webinars vom 04.09.2025 und wurde mit maschineller Unterstützung erstellt.