Auf dieser Seite
- Was das Berufsgeheimnis von Datenschutz unterscheidet
- Die berufsrechtliche Grundlage in Deutschland
- Warum öffentliche KI-Modelle strukturell ungeeignet sind
- Anforderungen an sichere KI-Infrastruktur für Berufsgeheimnisträger
- Sovereign AI: Der strukturelle Trend
- Praktische Konsequenzen für Kanzleien und Beratungshäuser
Rechtsanwälte, Steuerberater und Wirtschaftsprüfer stehen vor einem strukturellen Problem: KI-Tools steigern die Produktivität erheblich, aber jede Eingabe von Mandatsdaten in ein öffentliches Sprachmodell kann die Schweigepflicht brechen. Zwei Gerichtsentscheidungen Anfang 2026, ein US-Bundesgericht und ein britisches Tribunal, stellten klar: Wer vertrauliche Mandantendaten in öffentliche KI-Systeme eingibt, zerstört das Anwaltsgeheimnis. Die Informationen gelten dann als öffentlich zugänglich.
Die Lösung ist keine Frage der Vorsicht, sondern der Infrastruktur. Berufsgeheimnisträger brauchen KI-Systeme, die technisch und rechtlich garantieren, dass Daten den geschützten Bereich nie verlassen.
Was das Berufsgeheimnis von Datenschutz unterscheidet
Das Anwaltsgeheimnis und das Amtsgeheimnis gehen deutlich weiter als der Datenschutz nach DSGVO. Art. 13 des Schweizer Anwaltsgesetzes (BGFA) und Art. 320 ff. StGB verbieten nicht nur die unbefugte Weitergabe von Mandatsdaten, sondern jede Möglichkeit des Zugriffs durch Dritte, einschließlich des Softwareanbieters selbst.
Ueli Grüter, Rechtsanwalt und Dozent an der Hochschule Luzern, formuliert es direkt: Bekannte Chatbots wie ChatGPT, Gemini oder Le Chat sehen keine verschlüsselte Kommunikation mit Ausschluss des Anbieterzugriffs vor. Sie erfüllen damit die Anforderungen des Berufsgeheimnisses grundsätzlich nicht, unabhängig von Datenschutzvereinbarungen.
Das bedeutet: Eine DSGVO-konforme Auftragsverarbeitungsvereinbarung reicht für Berufsgeheimnisträger nicht aus. Der technische Ausschluss jedes Zugriffs ist Pflicht.
Die berufsrechtliche Grundlage in Deutschland
Im deutschen Recht regelt § 43e BRAO die Einschaltung von Dienstleistern durch Rechtsanwälte. Das Pendant für Steuerberater ist § 62a StBerG. Beide Normen erlauben die Nutzung cloudbasierter Software, knüpfen daran aber konkrete Pflichten.
Der Rechtsanwalt darf einem Dienstleister Zugang zu Geheimnissen nur eröffnen, soweit dies für die Inanspruchnahme der Dienstleistung erforderlich ist. Erforderlichkeit bei Cloud-Software bejaht die Norm, verpflichtet aber zur Ausschöpfung aller technischen Sicherungsmaßnahmen: Berechtigungskonzept, Verschlüsselung, vertragliche Verschwiegenheitspflicht mit Belehrung über strafrechtliche Folgen.
Drei Vertragspflichten sind zwingend:
- Der Dienstleister muss unter Belehrung über die strafrechtlichen Folgen zur Verschwiegenheit verpflichtet werden.
- Der Dienstleister darf sich nur insoweit Kenntnis von Geheimnissen verschaffen, als dies zur Vertragserfüllung erforderlich ist.
- Werden Subunternehmer eingesetzt, müssen diese ebenfalls in Textform zur Verschwiegenheit verpflichtet werden.
Bei ausländischen Anbietern kommt § 43e Abs. 4 BRAO hinzu: Ein Drittstaatentransfer ist nur zulässig, wenn der dortige Geheimnisschutz dem inländischen vergleichbar ist. Das erfordert eine eigenständige Risikoabschätzung durch den Datenschutzbeauftragten, die zugleich Grundlage der berufsrechtlichen Erlaubnis sein kann.
Warum öffentliche KI-Modelle strukturell ungeeignet sind
Öffentliche Sprachmodelle wie ChatGPT oder Gemini speisen Nutzerdaten häufig in ihr Training ein. Selbst wenn Training deaktiviert ist, bleibt der Anbieter technisch in der Lage, auf Gesprächsinhalte zuzugreifen. Das reicht nicht.
Eine aktuelle Umfrage zeigt: 56 Prozent der Anwälte nennen Genauigkeit als Hindernis für vollständiges KI-Vertrauen, 53 Prozent nennen Sicherheit. Beide Bedenken sind berechtigt, aber die Sicherheitsfrage ist für Berufsgeheimnisträger keine Präferenz, sondern eine Rechtspflicht.
Das Konzept der Zero-Access-Verschlüsselung löst das technische Problem. Dabei verschlüsselt der Client die Daten, bevor sie den eigenen Bereich verlassen. Der Anbieter empfängt nur Chiffrat, das er weder lesen noch auf richterliche Anordnung entschlüsseln kann. Proton Lumo, am 23. Juli 2025 lanciert, wendet diese Verschlüsselung standardmäßig an, ohne dass Nutzer sie aktivieren müssen.
Anforderungen an sichere KI-Infrastruktur für Berufsgeheimnisträger
Technische Isolation
Das KI-System läuft in einer privaten Cloud oder on-premise. Keine Daten fließen an externe Modelle. Zero-Access-Verschlüsselung oder vollständige lokale Verarbeitung sind die einzigen Architekturen, die das Berufsgeheimnis technisch absichern.
Vertragliche Absicherung
Der Anbieter wird schriftlich zur Verschwiegenheit verpflichtet, mit Belehrung über strafrechtliche Folgen. Subunternehmer werden namentlich benannt. Drittstaatentransfers werden ausgeschlossen oder durch eine dokumentierte Risikoabschätzung abgedeckt.
Integration in bestehende Systeme
Die KI arbeitet direkt im Mandantenmanagementsystem oder der Kanzleisoftware. Nur so behält die Fachkraft die Kontrolle und kann jede Aktion nachvollziehen. Isolierte KI-Tools außerhalb des gesicherten Systems erhöhen das Risiko versehentlicher Datenweitergabe.
Dokumentation und Auditierbarkeit
Jede Verarbeitung von Mandatsdaten durch KI-Systeme wird protokolliert. Das ermöglicht die Rechenschaftspflicht gegenüber Aufsichtsbehörden und die Erfüllung von Auskunftsrechten betroffener Mandanten.
Sovereign AI: Der strukturelle Trend
Der Begriff "Sovereign AI" beschreibt den Ansatz, die vollständige Kontrolle über Daten und Modellverhalten im eigenen Bereich zu behalten. Für Berufsgeheimnisträger ist das kein strategisches Konzept, sondern eine berufsrechtliche Notwendigkeit.
Smarsh, ein Spezialist für Kommunikations-Compliance, stellte im März 2026 eine Suite forensischer KI-Agenten vor, die speziell für eDiscovery und interne Ermittlungen entwickelt wurden. Das System analysiert E-Mails und Chat-Kommunikation innerhalb einer abgeschotteten Umgebung und soll die Kosten für interne Ermittlungen um bis zu 75 Prozent senken. Kein Datentransfer an externe Modelle findet statt.
Der neue Standard ISO/IEC 42001 soll künftig klare Grenzen zwischen Consumer-KI und Professional-KI ziehen. Für regulierte Berufe wird diese Unterscheidung zur Compliance-Grundlage.
Agentic AI, also KI-Systeme, die mehrstufige Aufgaben ohne ständige menschliche Anweisung ausführen, verstärken die Anforderung an sichere Infrastruktur weiter. Je autonomer ein System agiert, desto kritischer ist die Frage, welche Daten es dabei verarbeitet und wohin sie fließen.
Praktische Konsequenzen für Kanzleien und Beratungshäuser
Die Gerichtsentscheidungen von 2026 machen deutlich: Das Risiko ist nicht mehr abstrakt. Wer öffentliche KI-Tools mit Mandatsdaten nutzt, riskiert den Verlust des Anwaltsgeheimnisses mit unmittelbaren Folgen für laufende Verfahren.
Die Entscheidung für eine sichere KI-Infrastruktur ist keine IT-Frage. Sie ist eine Frage der Berufszulassung. Kanzleien, die ihre KI-Strategie auf Datensouveränität und technische Isolation gründen, sichern nicht nur Compliance, sondern auch das Vertrauen ihrer Mandanten.
Für die technische Umsetzung, von der Auswahl geeigneter Modelle bis zur Vertragsgestaltung mit Anbietern, bietet unser AI GDPR Compliance Guide einen strukturierten Ausgangspunkt. Fragen zur Datensouveränität und Hosting-Entscheidungen behandelt unsere Seite zu Datensouveränität im Detail. Wer die technischen Sicherheitsmaßnahmen für cloudbasierte Systeme konkretisieren möchte, findet in den Best Practices für Cloud-Datenbanksicherheit einen praxisnahen Rahmen.