Die KI als digitale Assistenz: Warum kontrollierte, datensouveräne Sprachtechnologie die höchstpersönliche Leistungspflicht wahrt

In der Rechtsanwaltschaft wird intensiv diskutiert, ob der Einsatz generativer KI-Systeme den Kern anwaltlicher Tätigkeit berührt und damit mit dem Gebot der höchstpersönlichen Leistungserbringung vereinbar ist. Die Sorge, anwaltliche Verantwortung unzulässig auf technische Systeme zu verlagern, ist ernst zu nehmen. Eine differenzierte rechtliche und technische Betrachtung zeigt jedoch: Moderne, datensouveräne KI-Architekturen ersetzen nicht die juristische Entscheidungsleistung, sondern fungieren als hochentwickelte Werkzeuge innerhalb der berufsrechtlich zulässigen Grenzen.
1. Die juristische Dogmatik der „höchstpersönlichen Leistung“
Nach § 43a Abs. 1 BRAO sind Rechtsanwält:innen zur gewissenhaften Berufsausübung verpflichtet. Daraus folgt, dass die maßgeblichen geistigen Kernleistungen – insbesondere Sachverhaltswürdigung, rechtliche Subsumtion und strategische Entscheidung – persönlich von den Berufsträger:innen zu erbringen und zu verantworten sind.
Abgrenzung: Substitution vs. Werkzeugnutzung
Rechtlich entscheidend ist die Abgrenzung zwischen einer unzulässigen Substitution anwaltlicher Tätigkeit und der zulässigen Nutzung technischer Hilfsmittel. Der Einsatz von KI ist nicht als „Outsourcing“ der Rechtsberatung zu qualifizieren, sondern als Nutzung eines digitalen Arbeitsmittels.
Der häufig gezogene Vergleich mit wissenschaftlichen Mitarbeitenden ist dogmatisch tragfähig: Auch hier werden Vorarbeiten wie Recherche, Strukturierung oder Entwurfserstellung delegiert, ohne dass die persönliche Verantwortung der Rechtsanwält:innen entfällt. Die KI übernimmt eine vergleichbare Rolle als „digitale Assistenz“, nicht als Entscheidungsträgerin.
Die Letztverantwortung als entscheidendes Kriterium
Zentral bleibt die menschliche Kontrolle. Solange Rechtsanwält:innen die KI-Ergebnisse prüfen, kritisch würdigen, gegebenenfalls korrigieren und sich den Inhalt zu eigen machen, verbleibt die anwaltliche Leistung im höchstpersönlichen Verantwortungsbereich. Die KI liefert den Entwurf – das juristische Urteil treffen die Berufsträger:innen.
2. Verschwiegenheit und Datenschutz durch datensouveräne Systemarchitekturen
Ein zentrales Hemmnis für den KI-Einsatz in Kanzleien ist die Wahrung der anwaltlichen Verschwiegenheitspflicht (§ 43a Abs. 2 BRAO) sowie die Vermeidung einer Strafbarkeit nach § 203 StGB. Klassische Cloud-Modelle, bei denen Mandant:innendaten dauerhaft an externe Server übermittelt oder gespeichert werden, werfen erhebliche rechtliche Risiken auf.
Architekturprinzip moderner datensouveräner Systeme (z. B. PyleHound)
Moderne Systeme wie PyleHound verfolgen einen differenzierten Ansatz, der häufig missverstanden wird. Sie operieren nicht als vollständig lokale KI (On-Device-Inferenz), sondern setzen auf eine strikte Trennung von Datenhoheit und Rechenleistung:
-
Lokale Datenhaltung: Mandant:innendaten verbleiben auf dem Endgerät oder im unmittelbaren Machtbereich der Kanzlei.
-
Zweckgebundene, temporäre Verarbeitung: Inhalte werden ausschließlich zur unmittelbaren Verarbeitung an das KI-Modell übermittelt und anschließend automatisiert gelöscht.
-
Keine Persistenz, kein Training: Die übermittelten Daten werden weder gespeichert noch für Trainings- oder sonstige Sekundärzwecke verwendet.
Rechtliche Einordnung
Aus berufs- und datenschutzrechtlicher Sicht ist entscheidend, dass
-
keine dauerhafte Datenüberlassung erfolgt,
-
keine eigenständige Verfügungsgewalt eines Dritten über die Inhalte entsteht,
-
und die Verarbeitung funktional einer kurzfristigen, streng zweckgebundenen technischen Dienstleistung entspricht.
Der eingesetzte KI-Dienst wird damit nicht zum eigenständigen „Kenntnisnehmer“ im Sinne des § 203 StGB, sondern agiert – technisch wie rechtlich – als strikt gebundene Auftragsverarbeitung ohne inhaltliche Zugriffsmöglichkeit. Gleichwohl bleibt eine sorgfältige vertragliche und technische Absicherung (insbesondere Auftragsverarbeitungsvertrag, Löschkonzepte und Zugriffsbeschränkungen) unerlässlich.
3. Reduktion von Haftungsrisiken durch evidenzbasierte KI-Architekturen
Ein zentrales praktisches Risiko generativer KI-Systeme liegt im sogenannten „Halluzinieren“, also der Erzeugung inhaltlich plausibler, aber sachlich unzutreffender Aussagen. Für die anwaltliche Praxis stellt dies ein potenzielles Haftungsrisiko dar.
Technische Leitplanken professioneller Systeme
Moderne Kanzlei-KI begegnet diesem Risiko durch strukturierte Architekturen:
-
Retrieval-Augmented Generation (RAG): Die Textgenerierung erfolgt nicht allein auf Basis eines statistischen Sprachmodells, sondern unter gezieltem Rückgriff auf definierte, kontrollierte Dokumentenbestände.
-
Quellentransparenz: Jede inhaltliche Aussage wird mit konkreten Fundstellen aus Primär- oder Sekundärquellen verknüpft.
Die KI fungiert damit nicht als „wissende Instanz“, sondern als Navigations- und Strukturierungsinstrument. Die eigentliche rechtliche Prüfung verbleibt bei den Rechtsanwält:innen, wird jedoch durch direkte Quellenverweise effizienter und überprüfbarer gestaltet.
4. Einordnung in EU AI Act und anwaltliches Berufsrecht
Der EU AI Act betont ausdrücklich die Notwendigkeit menschlicher Kontrolle („Human-in-the-loop“ bzw. „Human-over-the-loop“). Systeme, die keine automatisierten Rechtsentscheidungen treffen, sondern lediglich vorbereitende Entwürfe liefern, fallen regelmäßig nicht unter die Kategorie der Hochrisiko-KI.
Auch die Berufsordnung für Rechtsanwält:innen (BORA) steht dem Einsatz technischer Hilfsmittel grundsätzlich offen gegenüber, sofern
-
die anwaltlichen Sorgfaltspflichten gewahrt bleiben,
-
Transparenz gegenüber Mandant:innen besteht,
-
und keine unkontrollierte Delegation der Entscheidungsgewalt erfolgt.
Datensouveräne Assistenzsysteme erfüllen diese Anforderungen, indem sie die Entscheidungshoheit konsequent bei den Berufsträger:innen belassen.
Fazit: Technologische Unterstützung ohne Verlust anwaltlicher Souveränität
Der Einsatz moderner KI-Systeme bedeutet keinen Verzicht auf die höchstpersönliche anwaltliche Leistung, sondern deren funktionale Weiterentwicklung. Durch klare architektonische Prinzipien wie lokale Datenhoheit, temporäre Verarbeitung und transparente Quellenarbeit, lassen sich berufsrechtliche, datenschutzrechtliche und haftungsrechtliche Risiken wirksam begrenzen. Die KI ist kein Ersatz, sondern ein präzises Werkzeug in einer zunehmend komplexen Rechtswirklichkeit.