Auf dieser Seite

KI-Systeme verarbeiten personenbezogene Daten in einem Umfang und mit einer Geschwindigkeit, die klassische Datenschutzkonzepte an ihre Grenzen treibt. Organisationen, die KI einsetzen, ohne die geltenden regulatorischen Anforderungen zu klären, riskieren Bußgelder von bis zu 4 % des weltweiten Jahresumsatzes und einen Vertrauensverlust bei Kunden und Partnern.

Dieser Leitfaden richtet sich an CISOs, Datenschutzbeauftragte und Rechtsabteilungen, die für die Aufsicht über KI-Projekte verantwortlich sind. Er ersetzt keine Rechtsberatung, bietet aber die Orientierung, die Sie für fundierte Entscheidungen benötigen. Einen breiteren strategischen Kontext finden Sie in unserer KI-Beratung.


DSGVO-Anforderungen an KI-Systeme

Die DSGVO enthält keine KI-spezifischen Vorschriften, aber ihre Grundprinzipien gelten unmittelbar, oft unbemerkt bis ein Problem auftritt.

Automatisierte Entscheidungsfindung (Art. 22)

Wenn ein KI-System vollautomatisch Entscheidungen mit rechtlicher oder ähnlich erheblicher Wirkung trifft, gilt Art. 22 DSGVO. Betroffene Personen haben das Recht, dass eine natürliche Person die Entscheidung überprüft. Typische Fälle: Kreditscoring, automatisierte Bewerberauswahl, Risikobeurteilung in der Versicherungsbranche. Ausnahmen bestehen (Vertragserfüllung, Einwilligung), erfordern aber zusätzliche Schutzmaßnahmen.

Datensparsamkeit und Zweckbindung (Art. 5)

KI-Modelle werden auf großen Datensätzen trainiert, die häufig für einen anderen Zweck erhoben wurden. Art. 5 Abs. 1 lit. b DSGVO verlangt Zweckbindung. Das Training auf historischen Kundendaten für einen neuen Anwendungsfall ist ohne eigenständige Rechtsgrundlage unzulässig. Art. 5 Abs. 1 lit. c DSGVO verlangt Datensparsamkeit: Es dürfen nur die personenbezogenen Daten verarbeitet werden, die für den konkreten Zweck tatsächlich erforderlich sind.

Privacy by Design und Privacy by Default (Art. 25)

KI-Systeme müssen so konfiguriert sein, dass sie standardmäßig datenschutzfreundlich betrieben werden. Das bedeutet: keine unnötige Speicherung, keine weit gefassten Zugriffsrechte als Standardeinstellung und technische Pseudonymisierungsmaßnahmen, die in der Architekturphase verankert sind, nicht nachträglich ergänzt.

Die Umsetzung dieser Anforderungen ist Bestandteil jedes seriösen KI-Compliance-Programms.


EU AI Act und DSGVO

Seit August 2024 ist der EU AI Act in Kraft. Dieses Regulierungsrahmenwerk gilt parallel zur DSGVO und schafft sowohl erhebliche Überschneidungen als auch eigenständige Pflichten.

Risikoklassen und ihre Konsequenzen

Der AI Act unterscheidet vier Risikoklassen. Hochrisiko-KI-Systeme (Anhang III) unterliegen den strengsten Anforderungen: Konformitätsbewertung, technische Dokumentation, menschliche Aufsicht und Registrierung in einer EU-Datenbank. Als Hochrisiko gelten Systeme in Bereichen wie kritische Infrastruktur, Bildung, Beschäftigung, Strafverfolgung und Kreditvergabe.

Zeitplan der Pflichten

Verbotene KI-Praktiken (Art. 5)100%
Anforderungen an GPAI-Modelle75%
Hochrisiko: neue Systeme50%
Hochrisiko: bestehende Systeme25%
  • Februar 2025: Verbotene KI-Praktiken gelten (Art. 5)
  • August 2025: Anforderungen an GPAI-Modelle (General Purpose AI) treten in Kraft
  • August 2026: Hochrisiko-Anforderungen vollständig anwendbar auf neue Systeme
  • August 2027: Hochrisiko-Anforderungen auch anwendbar auf bestehende Systeme

Wechselwirkung mit der DSGVO

Beide Rahmenwerke verlangen Transparenz, Dokumentation und Risikobewertung, jedoch nicht in identischen Begriffen. Eine DSFA nach Art. 35 DSGVO erfüllt nicht automatisch die Konformitätsbewertung nach dem AI Act. Organisationen müssen beide Prozesse koordinieren, um Doppelarbeit zu vermeiden und Lücken zu schließen. Eine integrierte KI-Strategie hilft, diese Pflichten von Anfang an aufeinander abzustimmen.


7 praktische Schritte für DSGVO-konforme KI

Datenschutz-Folgenabschätzung frühzeitig durchführen

Art. 35 DSGVO schreibt eine DSFA vor, wenn KI-Systeme voraussichtlich ein hohes Risiko für betroffene Personen erzeugen. Eine DSFA ist kein Formular. Sie ist ein Analyse- und Governance-Prozess. Sie muss vor dem Einsatz abgeschlossen sein, nicht danach. Beziehen Sie Ihren Datenschutzbeauftragten in die Designphase ein, nicht erst bei der abschließenden Freigabe.

Zweckbindung und Datensparsamkeit dokumentieren

Halten Sie für jedes KI-System schriftlich fest: Welche Daten werden verarbeitet, zu welchem Zweck, auf welcher Rechtsgrundlage? Prüfen Sie, ob Trainingsinputs, Inferenzeingaben und Ausgaben jeweils über eine gültige Rechtsgrundlage verfügen. Synthetische Datensätze oder Anonymisierung können helfen, Zweckbindungsprobleme in der Trainingsphase zu lösen.

Auftragsverarbeitungsverträge korrekt gestalten

Beim Einsatz externer KI-Anbieter (SaaS, API, Cloud-Modelle) handelt es sich typischerweise um Auftragsverarbeiter nach Art. 28 DSGVO, was einen schriftlichen Auftragsverarbeitungsvertrag erfordert. Prüfen Sie, ob der Anbieter Ihre Daten auch zum Training eigener Modelle verwendet. Ist das der Fall, liegt kein Auftragsverarbeitungsverhältnis vor. Stattdessen handelt es sich um eine eigenständige Verarbeitung, die einer eigenen Rechtsgrundlage bedarf oder vertraglich ausgeschlossen werden muss.

Transparenzpflichten erfüllen

Betroffene Personen müssen nach Art. 13 und 14 DSGVO über den Einsatz von KI informiert werden, insbesondere über automatisierte Entscheidungsfindung (Art. 22 Abs. 2 lit. c DSGVO). Aktualisieren Sie Ihre Datenschutzhinweise. Stellen Sie sicher, dass die Angaben tatsächlich verständlich sind, nicht nur juristisch vollständig.

Löschkonzept für KI-Daten erstellen

Personenbezogene Daten in Trainingsdatensätzen, Modellgewichten und Protokollen müssen löschbar sein. Das ist technisch anspruchsvoll. Machine Unlearning ist noch kein gelöstes Problem. Klären Sie mit Ihrem Anbieter, wie Löschanfragen nach Art. 17 DSGVO behandelt werden, idealerweise bevor Sie ein System in den Produktivbetrieb nehmen.

Technische und organisatorische Maßnahmen anpassen

Ihre bestehenden TOM nach Art. 32 DSGVO decken möglicherweise keine KI-spezifischen Risiken ab: Model Poisoning, Prompt Injection, Membership Inference Attacks, unbeabsichtigte Reproduktion personenbezogener Daten durch Sprachmodelle. Ergänzen Sie Ihre TOM um KI-relevante Sicherheitsmaßnahmen und dokumentieren Sie diese in Ihrem Verarbeitungsverzeichnis.

Dokumentations- und Rechenschaftspflichten systematisch erfüllen

Das Rechenschaftsprinzip (Art. 5 Abs. 2 DSGVO) verlangt, dass Sie die Einhaltung aller Grundsätze nachweisen können. Für KI bedeutet das: Dokumentation der Modellauswahl, der Trainingsinputs, der DSFA-Ergebnisse, der Auftragsverarbeitungsverträge und der internen Freigabeprozesse. Strukturieren Sie diese Dokumentation so, dass sie auf Anfrage einer Aufsichtsbehörde vorgelegt werden kann. Unser Bereich KI-Compliance gibt einen Überblick über Rahmenwerke, die diese Nachweise strukturieren.


On-Premise vs. Cloud: eine datenschutzrechtliche Perspektive

Für Organisationen, die unter die DSGVO fallen, ist die Frage, wo personenbezogene Daten verarbeitet werden, keine technische Präferenz. Es ist eine Compliance-Entscheidung.

Datensouveränität und Drittlandtransfers

Die Nutzung von KI-APIs US-amerikanischer Anbieter (OpenAI, Google, AWS Bedrock, Microsoft Azure) ist grundsätzlich möglich, erfordert aber eine sorgfältige Prüfung. Seit dem EU-US Data Privacy Framework (2023) haben sich die Übermittlungsbedingungen erleichtert, sofern der Anbieter zertifiziert ist. Dennoch verbleibt ein Restrisiko: US-Behörden können auf Daten US-amerikanischer Anbieter nach dem CLOUD Act zugreifen, auch wenn diese in europäischen Rechenzentren gespeichert sind.

On-Premise und europäische Alternativen

Open-Source-Modelle (Llama, Mistral, Qwen) können lokal oder in europäischen Rechenzentren betrieben werden. Das eliminiert Drittlandtransferrisiken und bietet vollständige Kontrolle über die verarbeiteten Daten und das Modellverhalten. Der Betriebsaufwand ist höher, aber die Compliance-Position ist deutlich klarer.

Empfehlung für besondere Datenkategorien

Für besondere Kategorien personenbezogener Daten (Art. 9 DSGVO: Gesundheitsdaten, biometrische Daten, politische Meinungen) sollten Sie standardmäßig auf On-Premise oder zertifizierte europäische Anbieter setzen, etwa solche mit einem C5-Testat des BSI oder einer gleichwertigen ISO-27001-basierten Zertifizierung. Der Nachweis der Compliance gegenüber Aufsichtsbehörden ist in diesen Fällen deutlich einfacher.


Häufige Compliance-Fehler

AVV mit Anbieter nicht unterzeichnet oder nicht geprüft

Viele Organisationen schließen mit KI-Anbietern entweder keinen AVV ab oder akzeptieren Standardverträge, ohne zu prüfen, ob der Anbieter Kundendaten für eigene Zwecke nutzt. Manche Anbieter schließen das KI-Training mit Kundendaten ausdrücklich in ihren Bedingungen ein. Das stellt eine eigenständige Verarbeitung dar, kein Auftragsverarbeitungsverhältnis.

DSFA zu spät oder gar nicht durchgeführt

Die DSFA wird häufig als abschließendes Dokument behandelt, das nach der Implementierung ausgefüllt wird. Rechtlich muss sie abgeschlossen sein, bevor die Verarbeitung beginnt. Eine nachträgliche DSFA ist kein echter Schutz. Sie ist Dokumentation ohne Governance-Wirkung.

Zweckbindung beim Fine-Tuning verletzt

Organisationen nutzen Kundendaten zum Training oder Fine-Tuning eigener Modelle, ohne zu prüfen, ob die ursprüngliche Einwilligung oder Rechtsgrundlage diesen Zweck abdeckt. Daten, die im Rahmen eines Kundendienstvertrags erhoben wurden, können nicht automatisch zum Training eines Chatbots verwendet werden.

Kein Prozess für Betroffenenrechte bei KI-Systemen

Auskunfts-, Berichtigungs- und Löschanfragen treffen Organisationen unvorbereitet, wenn KI-Systeme personenbezogene Daten auf nicht transparente Weise verarbeiten. Stellen Sie sicher, dass Ihre Prozesse zur Erfüllung von Betroffenenrechten auch KI-verarbeitete Daten abdecken.

Modellausgaben als nicht-personenbezogen behandelt

Ausgaben von KI-Systemen (z. B. generierte Profile, Scores, Empfehlungen) können personenbezogene Daten darstellen, auch wenn sie nicht direkt aus gespeicherten Datensätzen stammen. Datenschutzrecht gilt für Ausgaben, nicht nur für Eingaben.


Weiterführende Hinweise

Einen Überblick über rechtliche Anforderungen bietet unsere KI-Compliance-Übersicht. Für die Entwicklung eines Governance-Rahmens lesen Sie unseren KI-Strategie-Leitfaden. Branchenspezifische Überlegungen finden Sie unter KI in regulierten Branchen.