Large Language Modelle (LLM) verändern Geschäftsprozesse, Kundenkommunikation und Wissensarbeit in rasantem Tempo. Für viele mittelständische Unternehmen entsteht dadurch ein erheblicher Innovationsdruck. Gleichzeitig wächst der regulatorische Anspruch: Wer LLMs entwickelt, unternehmensspezifisch anpasst oder im Geschäftsalltag einsetzt, muss Datenschutz, Data Governance und technische Schutzmaßnahmen von Anfang an integrieren.
Spätestens mit der EDSA-Stellungnahme 28/2024 und dem Abschlussbericht der BfDI zum Konsultationsverfahren im März 2026 herrscht Gewissheit: Die DSGVO verliert im KI-Kontext nicht an Relevanz, sondern wird präziser und konsequenter angewendet.
Warum LLMs anders zu bewerten sind
Klassische IT-Systeme speichern Daten strukturiert und auffindbar. LLMs hingegen lernen statistische Muster und verdichten diese in Modellparametern. Personenbezogene Informationen verschwinden beim Training nicht automatisch. Die regulatorische Leitfrage lautet stets: Kann eine natürliche Person mit vertretbarem Aufwand durch gezielte Abfragen aus dem Modell re-identifiziert werden?
Die 3 Leitplanken der Aufsicht
- Kein Automatismus: Mit personenbezogenen Daten trainierte KI-Modelle gelten nicht pauschal als anonym.
- Strenge Prüfung: Das berechtigte Interesse als Rechtsgrundlage erfordert eine belastbare Drei-Stufen-Prüfung.
- Infektionsrisiko: Rechtswidrige Trainingsdaten können die spätere Nutzung des gesamten Modells unzulässig machen.
Die Erkenntnisse der BfDI-Konsultation 2025/2026
Der aktuelle BfDI-Bericht aus dem Frühjahr 2026 liefert einen praxisnahen Orientierungsrahmen für den Umgang mit generativer KI. Eine zentrale und für Unternehmen entlastende Erkenntnis betrifft die Inferenzphase (Modellanwendung): Die reine Eingabe eines Prompts führt mehrheitlich nur dann zu einer Verarbeitung memorisierter personenbezogener Daten, wenn sich diese auch im generierten Output wiederfinden.
Bezüglich der Betroffenenrechte zeigt sich jedoch eine klare Hürde: Die Löschung memorisierter Daten aus dem fertigen Modellkern (z.B. durch Machine Unlearning) gilt derzeit als noch nicht ausreichend zuverlässig. Die Lösung muss daher im Architektur-Umfeld stattfinden.
Risiken erkennen – Lösungen implementieren
Zentrale Praxis-Risiken
- Extraktionsrisiko: Das Modell gibt memorisierte, reale personenbezogene Daten an unberechtigte Dritte aus.
- Reputationsrisiko (Halluzinationen): Die KI erzeugt falsche, aber überzeugend klingende Aussagen über reale Personen.
- Kontrollverlust: Mitarbeitende geben sensible Kundendaten ungefiltert in öffentliche Prompts ein.
Wirksame Schutzmaßnahmen
- Datenminimierung vorab: Filtern, Pseudonymisieren oder Entfernen von Personendaten vor der Eingabe.
- Systemarchitektur: Strikte Zugriffskontrollen, Output-Filter und strukturierte Protokollierung.
- Organisatorische Governance: Verbindliche KI-Richtlinien für Beschäftigte und klare Rollenmodelle mit KI-Anbietern.
AI Act und DSGVO: Ein integrierter Ansatz
Der europäische AI Act ersetzt die DSGVO nicht, sondern baut auf ihr auf. Für Geschäftsführer bedeutet das: KI-Compliance darf nicht als isoliertes IT-Projekt betrachtet werden, sondern erfordert eine bereichsübergreifende Steuerung (Datenschutz, InfoSec, HR, Legal).
Wichtige Meilensteine des AI Act
Häufig gestellte Fragen (FAQ)
Sind trainierte KI-Modelle datenschutzrechtlich automatisch anonym?
Nein. Laut EDSA und BfDI muss im Einzelfall geprüft werden, ob es sehr unwahrscheinlich ist, Personen direkt oder indirekt zu identifizieren. Solange eine Datenextraktion durch gezielte Prompts nicht sicher ausgeschlossen werden kann, muss das Modell als datenschutzrechtlich relevant behandelt werden.
Haftet bei Cloud-KI-Diensten ausschließlich der Anbieter?
Nein. Wer ein Modell produktiv einsetzt, legt den Verarbeitungszweck fest und ist datenschutzrechtlich verantwortlich. Sie müssen im Rahmen einer Vendor-Prüfung sicherstellen, dass die genutzte KI rechtskonform trainiert wurde und technische Schutzmaßnahmen sowie Betroffenenrechte gewährleistet sind.
Benötigen wir für den Einsatz von LLMs eine Datenschutz-Folgenabschätzung (DSFA)?
In den meisten Fällen ja. Insbesondere wenn HR-Daten, Support-Verläufe, Compliance-Fälle oder andere sensible und umfangreiche Datenbestände durch eine KI verarbeitet werden, ist eine DSFA zwingend erforderlich, um Risiken im Vorfeld zu minimieren und zu dokumentieren.
Wie können wir Auskunfts- und Löschrechte bei LLMs erfüllen?
Da das gezielte Löschen aus dem Modell („Machine Unlearning“) technisch noch komplex und teils unzuverlässig ist, verlagert sich die Compliance auf das umgebende System. Dies umfasst Output-Filter, Löschung aus den Trainingsdaten-Quellen (für zukünftige Updates) sowie strenge Eingabekontrollen.