DSGVO-konforme KI: Ein Leitfaden für Unternehmen
Wie setzt du KI DSGVO-konform ein? Rechtsgrundlagen, Risiken bei Cloud-KI, Vorteile lokaler Verarbeitung und eine praktische Checkliste.
Warum ist DSGVO-Konformität bei KI so wichtig?
KI-Systeme verarbeiten fast immer personenbezogene Daten. Kundennamen in E-Mails, Mitarbeiterdaten in HR-Tools, Mandantenakten in der Steuerberatung: Sobald ein KI-Modell mit echten Unternehmensdaten arbeitet, greift die DSGVO. Die Konsequenzen bei Verstößen sind dabei nicht abstrakt, sondern bezifferbar und existenzbedrohend.
Der IBM Cost of a Data Breach Report 2025 beziffert die durchschnittlichen Kosten einer Datenschutzverletzung in Deutschland auf 3,87 Millionen Euro. Das ist der Schnitt, nicht der Extremfall. Besonders alarmierend ist der Faktor Shadow AI: Laut derselben Studie erlitt jedes fünfte Unternehmen 2025 einen Breach durch unautorisierte KI-Nutzung, mit Zusatzkosten von durchschnittlich 670.000 US-Dollar pro Vorfall. Shadow AI entsteht, wenn Mitarbeiter eigenständig Cloud-KI-Tools nutzen, ohne Freigabe, ohne Dokumentation, ohne Rechtsgrundlage. Nicht aus Bosheit, sondern weil die Produktivitätsvorteile zu groß sind, um sie zu ignorieren, und weil offizielle Alternativen oft fehlen.
Die Dimension des Problems wird klarer, wenn man sich ansieht, welche Daten in KI-Systeme fließen. Cyberhaven hat 2025 ermittelt, dass 34,8 Prozent aller Daten, die Mitarbeiter in KI-Tools eingeben, sensibel sind. Das ist ein Anstieg von 10,7 Prozent im Jahr 2023 auf mehr als ein Drittel innerhalb von zwei Jahren. Verträge, Kundenlisten, Finanzdaten, Gesundheitsinformationen: All das landet in Cloud-KI-Diensten, oft ohne dass die Geschäftsführung davon weiß.
Die Aufsichtsbehörden reagieren spürbar. Allein 2025 verhängten deutsche Datenschutzbehörden Bußgelder in Höhe von 46,9 Millionen Euro in 249 Verfahren. Das höchste Einzelbußgeld: 45 Millionen Euro gegen Vodafone. Kumuliert sind seit Inkrafttreten der DSGVO im Jahr 2018 europaweit über 7 Milliarden Euro an Bußgeldern zusammengekommen.
Der Trend zeigt klar nach oben, nicht nach unten. Mit dem EU AI Act, der ab August 2026 vollständig gilt, kommt ein zweites Bußgeldregime hinzu, das kumulativ wirken kann. Wer gegen beide Regelwerke verstößt, riskiert Bußgelder nach DSGVO und AI Act gleichzeitig. Für KMU können solche Summen existenzbedrohend sein.
Welche DSGVO-Anforderungen gelten für KI-Systeme?
Die DSGVO enthält keine expliziten KI-Regelungen, sie wurde 2016 verabschiedet, als generative KI noch ein Forschungsthema war. Dennoch treffen mehrere Artikel KI-Systeme direkt, von der Rechtsgrundlage über Informationspflichten bis hin zu automatisierten Einzelentscheidungen und Privacy by Design. Fünf Artikel sind für den KI-Einsatz besonders relevant.
| DSGVO-Artikel | Inhalt | Bedeutung für KI |
|---|---|---|
| Art. 6 | Rechtsgrundlage der Verarbeitung | Jede KI-Verarbeitung braucht eine Rechtsgrundlage: Einwilligung, Vertragserfüllung, berechtigtes Interesse oder gesetzliche Pflicht. |
| Art. 13/14 | Informationspflichten | Betroffene müssen wissen, dass ihre Daten durch KI verarbeitet werden, einschließlich Zweck, Rechtsgrundlage und Empfänger. |
| Art. 22 | Automatisierte Einzelentscheidungen | Entscheidungen, die ausschließlich auf automatisierter Verarbeitung beruhen und rechtliche Wirkung entfalten, erfordern menschliche Überprüfung und Widerspruchsrecht. |
| Art. 25 | Privacy by Design und by Default | KI-Systeme müssen von Anfang an datenschutzfreundlich gestaltet sein: Datenminimierung, Pseudonymisierung, Zugangsbeschränkungen. |
| Art. 35 | Datenschutz-Folgenabschätzung (DPIA) | Bei hohem Risiko für die Rechte der Betroffenen ist eine DPIA Pflicht. Das trifft auf die meisten KI-Anwendungen zu, die personenbezogene Daten verarbeiten. |
Artikel 22 ist in der Praxis besonders relevant. Sobald ein KI-System eigenständig Entscheidungen trifft, die Personen betreffen, etwa bei Bewerberauswahl, Kreditwürdigkeitsprüfung oder Leistungsbewertung, greift das Verbot automatisierter Einzelentscheidungen. Betroffene haben das Recht auf menschliche Überprüfung, auf Darlegung des Standpunkts und auf Anfechtung der Entscheidung. Artikel 25, Privacy by Design, bedeutet für KI konkret: Nicht die maximal möglichen Daten sammeln, sondern nur das Minimum, das für den Zweck nötig ist. Nicht alle Mitarbeiter haben Zugriff auf KI-Ergebnisse, sondern nur diejenigen, die ihn brauchen. Nicht Daten unbegrenzt speichern, sondern Löschfristen definieren und einhalten.
Die Datenschutzkonferenz (DSK) hat in ihrer Orientierungshilfe vom Mai 2024 ausdrücklich festgestellt, dass der Einsatz von KI zur Verarbeitung personenbezogener Daten in der Regel eine DPIA erfordert. Das gilt besonders, wenn neue Technologien eingesetzt werden, die Verarbeitung systematisch und umfassend erfolgt oder besondere Kategorien von Daten betroffen sind. In der Praxis bedeutet das: Fast jede KI-Anwendung, die mit echten Kunden- oder Mitarbeiterdaten arbeitet, löst eine DPIA-Pflicht aus.
Ergänzend hat das European Data Protection Board (EDPB) im Dezember 2024 mit der Opinion 28/2024 wichtige Leitlinien veröffentlicht. Die zentrale Frage: Wann ist ein KI-Modell anonym, und wann greift „berechtigtes Interesse" als Rechtsgrundlage für das Training? Das EDPB stellt klar, dass Anonymität eines Modells nicht automatisch gegeben ist, nur weil personenbezogene Trainingsdaten gelöscht wurden. Ob ein Modell personenbezogene Daten „enthält", hängt davon ab, ob sich aus den Ausgaben Rückschlüsse auf Einzelpersonen ziehen lassen. Für Unternehmen bedeutet das: Auch vermeintlich anonyme KI-Modelle können unter die DSGVO fallen.
Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) hat im Dezember 2025 eine eigene Handreichung zu LLMs und personenbezogenen Daten veröffentlicht. Sie konkretisiert, unter welchen Bedingungen der Einsatz großer Sprachmodelle mit der DSGVO vereinbar ist, und betont die Notwendigkeit klarer Verantwortlichkeiten zwischen Anbietern und Nutzern von KI-Diensten.
Warum ist Cloud-KI problematisch für die Datensouveränität?
Wenn du einen Text in ChatGPT, Claude oder Google Gemini eingibst, verlassen diese Daten dein Netzwerk und werden auf Servern des Anbieters verarbeitet. Für personenbezogene Daten brauchst du dafür eine Rechtsgrundlage, einen Auftragsverarbeitungsvertrag (AVV) und in vielen Fällen die Information der Betroffenen. Doch selbst wenn du all das sicherstellst, bleibt ein strukturelles Problem, das kein Vertrag lösen kann.
Alle großen Cloud-KI-Anbieter sind US-Unternehmen: OpenAI, Google, Microsoft, Anthropic. Sie unterliegen dem US CLOUD Act, der US-Behörden das Recht gibt, Daten anzufordern, unabhängig davon, wo die Server physisch stehen. Microsoft hat in offiziellen Stellungnahmen eingeräumt, dass das Unternehmen Datensouveränität gegenüber US-Behörden nicht garantieren kann. Ein AVV schützt vor vertraglichen Risiken zwischen den Parteien, aber nicht vor behördlichem Zugriff nach US-Recht. Das ist kein theoretisches Risiko, sondern ein struktureller Konflikt zwischen zwei Rechtssystemen.
Die Absicherung, auf die viele Unternehmen vertrauen, ist das EU-US Data Privacy Framework (DPF). Doch dieses Abkommen steht auf unsicherem Fundament. Das Privacy and Civil Liberties Oversight Board (PCLOB), eine zentrale Kontrollinstanz, die im Angemessenheitsbeschluss der EU-Kommission 31 Mal namentlich erwähnt wird, verlor Anfang 2025 sein Quorum. Die Trump-Administration entließ die demokratischen Mitglieder im Januar 2025 und machte das Gremium damit beschlussunfähig. Max Schrems und seine Organisation noyb haben wiederholt erklärt, dass ein „Schrems III"-Urteil des EuGH eine Frage des Wann ist, nicht des Ob. Sollte der EuGH das DPF kippen, stehen sämtliche Datentransfers an US-Cloud-KI-Anbieter ohne Rechtsgrundlage da.
Hinzu kommt das Trainingsdaten-Problem. Viele Cloud-KI-Anbieter verwenden eingegebene Daten zur Verbesserung ihrer Modelle oder behalten sich dieses Recht zumindest vor. Selbst wenn Opt-out-Optionen existieren, bleibt die Frage: Lässt sich nachweisen, dass die Daten nicht ins Training geflossen sind? Für eine DSGVO-konforme Dokumentation ist das kaum darstellbar. Die Beweislast liegt beim verantwortlichen Unternehmen, und dieser Nachweis ist bei externen Cloud-Diensten praktisch unmöglich zu führen.
Die Durchsetzung ist bereits Realität. Die italienische Datenschutzbehörde Garante hat OpenAI im Dezember 2024 mit einem Bußgeld von 15 Millionen Euro belegt, unter anderem wegen fehlender Rechtsgrundlage für die Verarbeitung personenbezogener Trainingsdaten. Clearview AI hat kumuliert über 60 Millionen Euro an Bußgeldern in verschiedenen EU-Mitgliedstaaten angesammelt. Diese Fälle zeigen, dass europäische Behörden bereit sind, auch gegen die größten Anbieter vorzugehen. Einen detaillierten Vergleich zwischen lokaler KI und Cloud-KI findest du im verlinkten Artikel.
Für Branchen mit besonderen Geheimhaltungspflichten verschärft sich die Lage zusätzlich. Steuerberater unterliegen dem Mandantengeheimnis, Ärzte der ärztlichen Schweigepflicht, Rechtsanwälte dem Anwaltsgeheimnis. In all diesen Fällen ist die Weitergabe von Mandanten-, Patienten- oder Klientendaten an Dritte nicht nur ein DSGVO-Verstoß, sondern ein Verstoß gegen berufsrechtliche Pflichten. Cloud-KI-Dienste machen diese Trennung strukturell unmöglich.
Wie löst lokale KI das Compliance-Problem?
Der entscheidende Unterschied: Bei lokaler KI verlassen die Daten nie dein Netzwerk. Es gibt keinen Drittanbieter, keinen Datentransfer ins Ausland, keinen CLOUD Act, kein Schrems-III-Risiko. Damit entfallen auf einen Schlag die größten compliance-relevanten Problemfelder, die Cloud-KI-Dienste mit sich bringen.
Open-Source-Modelle wie Llama 3, Mistral und Qwen 2.5 laufen auf kompakter Hardware wie NVIDIA Jetson direkt im Unternehmen. Für typische Business-Aufgaben, also Textanalyse, Zusammenfassungen, Klassifizierung und Entwurfserstellung, erreichen diese Modelle 90 bis 95 Prozent der Qualität kommerzieller Cloud-Dienste. Der Unterschied: Kein einziges Byte verlässt das Gebäude.
Stell dir eine mittelgroße Steuerberatung mit 15 Mitarbeitern vor. Drei Tage pro Woche verbringt das Team damit, Eingangsbelege zu sichten, Mandantenanfragen zu sortieren und Standardschreiben aufzusetzen. Mit einer lokalen KI-Lösung lässt sich ein Großteil dieser Arbeit automatisieren, Rechnungen erkennen und zuordnen, E-Mails vorklassifizieren, Textbausteine generieren. Das Mandantengeheimnis bleibt gewahrt, weil kein externer Dienst involviert ist. Der Steuerberater kann seinem Mandanten schriftlich bestätigen, dass dessen Daten das Büro nie verlassen.
Dasselbe Prinzip gilt für andere Branchen. Eine Arztpraxis mit drei Ärzten und tausenden Patientenakten kann Befunde und Arztbriefe lokal durch KI vorstrukturieren lassen. Die ärztliche Schweigepflicht bleibt gewahrt, weil keine Patientendaten an externe Server übermittelt werden. Eine Kanzlei kann Verträge und Schriftsätze analysieren, Klauseln vergleichen und Rechercheergebnisse zusammenfassen, ohne das Anwaltsgeheimnis zu gefährden. Und ein Handwerksbetrieb kann Angebote kalkulieren, Materiallisten erstellen und Kundenkommunikation beschleunigen, ohne Geschäftsgeheimnisse wie Einkaufskonditionen oder Margen preiszugeben.
Die DPIA für lokale KI-Systeme fällt deutlich schlanker aus als für Cloud-Dienste. Statt Drittland-Risiken, AVV-Zuverlässigkeit und externe Sicherheitsmaßnahmen bewerten zu müssen, beschränkt sich die Folgenabschätzung auf die eigene Infrastruktur: Zugriffskontrollen, Verschlüsselung, Löschfristen. Das ist beherrschbar, dokumentierbar und für Aufsichtsbehörden nachvollziehbar.
Ein oft übersehener Vorteil: Lokale KI wirkt auch präventiv gegen Shadow AI. Wenn Mitarbeiter eine leistungsfähige, freigegebene KI-Lösung am Arbeitsplatz haben, sinkt der Anreiz, unkontrolliert auf Cloud-Dienste auszuweichen. Die Produktivitätsvorteile von KI bleiben erhalten, aber innerhalb eines compliance-konformen Rahmens. Das ist kein theoretischer Effekt, sondern eine direkte Folge davon, den Bedarf der Mitarbeiter ernst zu nehmen, statt ihn zu ignorieren.
Checkliste: KI DSGVO-konform einsetzen
Ob du bereits KI einsetzt oder gerade erst planst: Diese Checkliste hilft dir, die wichtigsten Anforderungen systematisch abzuarbeiten. Die Punkte sind in drei Bereiche gegliedert, die zusammen einen belastbaren Compliance-Rahmen bilden.
Dokumentation
- Rechtsgrundlage für jede KI-Anwendung dokumentieren. Für jede Verarbeitung personenbezogener Daten durch KI muss eine Rechtsgrundlage nach Art. 6 DSGVO festgehalten sein: Einwilligung, Vertragserfüllung, berechtigtes Interesse oder gesetzliche Pflicht. Ohne dokumentierte Rechtsgrundlage ist jede Verarbeitung rechtswidrig.
- Verarbeitungsverzeichnis um KI-Systeme ergänzen. KI-Tools gehören ins Verarbeitungsverzeichnis nach Art. 30 DSGVO. Das umfasst lizenzierte Software mit KI-Funktionen, Cloud-Dienste, lokale Modelle und KI-Features in bestehenden Anwendungen wie automatische Kategorisierung in E-Mail-Programmen.
- DPIA für jede KI-Anwendung mit personenbezogenen Daten durchführen. Die DSK hat klargestellt, dass eine Datenschutz-Folgenabschätzung nach Art. 35 für die meisten KI-Anwendungen Pflicht ist. Dokumentiere identifizierte Risiken, ergriffene Maßnahmen und verbleibende Restrisiken.
Technische Maßnahmen
- Lokale Verarbeitung bevorzugen, wenn personenbezogene Daten involviert sind. Wo immer sensible Daten verarbeitet werden, ist lokale KI die sicherste Option. Kein Drittland-Transfer, kein CLOUD Act, keine Abhängigkeit von externen Anbietern.
- Datenminimierung konsequent umsetzen. Gib KI-Systemen nur die Daten, die für den jeweiligen Zweck nötig sind. Keine vollständigen Kundendatenbanken als Input, wenn eine anonymisierte Stichprobe reicht. Art. 25 DSGVO verlangt Privacy by Design.
- Löschfristen definieren und automatisieren. Lege fest, wie lange KI-verarbeitete Daten gespeichert werden. Automatische Löschung verhindert, dass Daten vergessen werden und sich unkontrolliert ansammeln.
- Bei Cloud-KI: AVV abschließen und Drittland-Transfer rechtlich absichern. Falls Cloud-KI-Dienste unvermeidbar sind, stelle sicher, dass ein AVV nach Art. 28 DSGVO vorliegt und dass die Datentransfers in Drittländer auf einer belastbaren Rechtsgrundlage stehen. Bedenke dabei die Unsicherheit des EU-US Data Privacy Frameworks.
Organisation
- KI-Inventar erstellen. Erfasse alle KI-Systeme im Unternehmen, einschließlich inoffizieller Nutzung. Ein vollständiges Inventar ist auch Voraussetzung für die Compliance mit dem EU AI Act ab August 2026.
- Mitarbeiter schulen. KI-Kompetenz ist seit Februar 2025 Pflicht nach Art. 4 des AI Acts. Schulungen sollten nicht nur die Technik abdecken, sondern auch klare Regeln vermitteln: Welche Tools sind erlaubt, welche Daten dürfen eingegeben werden, welche nicht.
- Klare Richtlinien für den KI-Einsatz formulieren. Eine KI-Richtlinie muss kein 50-seitiges Dokument sein. Aber sie muss existieren, kommuniziert werden und durchsetzbar sein. Wer keine Richtlinie hat, hat keine Grundlage, Shadow AI zu unterbinden.
- Jährliche Überprüfung aller KI-Anwendungen einplanen. DSGVO-Konformität ist kein einmaliges Projekt. Prüfe mindestens einmal im Jahr, ob neue KI-Anwendungen hinzugekommen sind, ob sich Rechtsgrundlagen geändert haben und ob die Dokumentation aktuell ist.
Fazit
DSGVO-konforme KI ist kein Widerspruch, aber sie erfordert bewusste Entscheidungen. Cloud-KI-Dienste bieten nach wie vor die leistungsstärksten Modelle und die größte Flexibilität. Für Aufgaben ohne Personenbezug, etwa allgemeine Recherche, Marketingtexte oder Ideenentwicklung, sind sie eine gute und oft die bessere Wahl. Nicht jede KI-Nutzung im Unternehmen muss lokal sein.
Sobald allerdings personenbezogene Daten ins Spiel kommen, Mandantenakten, Patientendaten, Mitarbeiterinformationen, Verträge, ändert sich die Rechnung grundlegend. Für diese Fälle bietet lokale Verarbeitung den pragmatischsten Weg zur Compliance: keine Datenübermittlung an Dritte, keine Drittland-Risiken, eine schlanke DPIA und volle Kontrolle über jeden Verarbeitungsschritt.
In der Praxis werden die meisten Unternehmen langfristig beide Ansätze kombinieren. Die entscheidende Frage ist nicht lokal oder Cloud, sondern welche Daten welchen Weg nehmen dürfen. Wer diese Trennung einmal sauber definiert, hat eine Architektur, die sowohl compliant als auch leistungsfähig ist.
Das Zeitfenster für die Vorbereitung ist jetzt. Die DSGVO gilt bereits, der AI Act greift ab August 2026. Wer heute anfängt, hat genügend Vorlauf. Wer wartet, wird es eilig haben.
Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für die Umsetzung der genannten Anforderungen solltest du qualifizierte Rechtsberatung hinzuziehen.
Quellen
- IBM Cost of a Data Breach Report 2025
- Cyberhaven: AI Adoption and Data Security Report 2025
- DSK: Orientierungshilfe KI und Datenschutz (Mai 2024)
- EDPB: Opinion 28/2024 on Data Protection Aspects of AI Models (Dezember 2024)
- BfDI: Handreichung zu LLMs und personenbezogenen Daten (Dezember 2025)
- noyb: EU-US Data Privacy Framework
- DSGVO Enforcement Tracker
- Bitkom: Deutsche Wirtschaft kommt bei KI voran (2026)
Du möchtest KI in deinem Unternehmen einsetzen – ohne Cloud und ohne Abo? Schreib uns oder erfahre mehr über das Arasul KI-Betriebssystem.