KI Datenschutz DSGVO – Unternehmer prüft KI-Compliance am Bildschirm

KI Datenschutz DSGVO: Was Unternehmen bei der DSGVO-konformen KI-Nutzung wirklich beachten müssen

Du nutzt ChatGPT für Kundenmails, lässt Produkttexte von einer KI schreiben oder dein CRM wertet Kundendaten automatisch aus – und fragst dich dabei, ob das eigentlich alles so erlaubt ist? Damit bist du nicht allein. Das Thema KI Datenschutz DSGVO beschäftigt gerade fast jedes Unternehmen, das ich in meiner Beratung begleite, und die Unsicherheit ist enorm. Kein Wunder: Die Rechtslage ist komplex, die Technik entwickelt sich rasant, und zwischen „das wird schon passen“ und „wir lassen lieber die Finger davon“ liegt ein riesiges Feld, das die meisten nicht überblicken.

In diesem Artikel zeige ich dir, worauf es bei der DSGVO-konformen Nutzung von KI-Systemen ankommt – praxisnah, verständlich und ohne juristisches Kauderwelsch. Du erfährst, welche Rechtsgrundlagen greifen, wann eine Datenschutz-Folgenabschätzung Pflicht ist, wie du Cloud-KI-Dienste sicher einsetzt und welche Fehler du unbedingt vermeiden solltest. Los geht’s.

KI und DSGVO: Grundlagen und Definitionen

Bevor wir in die Details einsteigen, lohnt sich ein kurzer Blick auf die Begriffe – denn in der Praxis werden hier oft Dinge vermischt, die eigentlich getrennt betrachtet werden müssen. Die DSGVO (Datenschutz-Grundverordnung) regelt den Umgang mit personenbezogenen Daten in der EU. Künstliche Intelligenz wiederum ist ein Oberbegriff für Systeme, die Aufgaben ausführen, für die normalerweise menschliche Intelligenz nötig wäre – von einfachen Chatbots bis hin zu komplexen Modellen für maschinelles Lernen.

Der entscheidende Punkt: Nicht jede KI-Anwendung fällt automatisch unter die DSGVO. Die Verordnung greift erst dann, wenn personenbezogene Daten verarbeitet werden – also Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Das klingt zunächst einfach, wird aber schnell kompliziert, wenn du bedenkst, dass KI-Systeme oft mit riesigen Datenmengen trainiert werden und dabei auch indirekt personenbezogene Daten verarbeiten können, ohne dass das auf den ersten Blick erkennbar ist.

ℹ️ Gut zu wissen

Personenbezogene Daten umfassen weit mehr als Namen und E-Mail-Adressen. Auch IP-Adressen, Standortdaten, Kaufverhalten, biometrische Merkmale oder sogar Schreibstil-Analysen können unter die DSGVO fallen – sobald ein Personenbezug herstellbar ist. Bei KI-Systemen ist genau diese Grenze oft fließend.

Was viele nicht wissen: Auch wenn du eine KI „nur“ mit anonymisierten Daten fütterst, kann ein Datenschutzproblem entstehen – nämlich dann, wenn die Anonymisierung nicht wirklich anonym ist. Pseudonymisierte Daten (also Daten, bei denen der Personenbezug durch Zusatzinformationen wiederhergestellt werden kann) gelten nach DSGVO weiterhin als personenbezogen. Das begegnet mir in der Praxis regelmäßig, wenn Unternehmen glauben, sie hätten ihre Kundendaten ausreichend anonymisiert, tatsächlich aber nur eine Pseudonymisierung vorgenommen haben.

Wann gilt die DSGVO bei KI-Systemen?

Die kurze Antwort: Immer dann, wenn personenbezogene Daten ins Spiel kommen. Die etwas längere Antwort erfordert einen differenzierteren Blick, denn KI-Systeme verarbeiten Daten in verschiedenen Phasen – und in jeder einzelnen kann die DSGVO relevant werden.

In der Trainingsphase werden große Datenmengen genutzt, um das KI-Modell zu entwickeln. Wenn diese Trainingsdaten personenbezogene Informationen enthalten – etwa Kundenbewertungen, Support-Anfragen oder Nutzerverhalten –, greift die DSGVO bereits hier. In der Anwendungsphase verarbeitet die KI dann konkrete Eingaben, die ebenfalls personenbezogen sein können: Du gibst zum Beispiel eine Kundenanfrage in ChatGPT ein, um eine Antwort generieren zu lassen. Und schließlich gibt es die Ausgabephase, in der die KI Ergebnisse liefert, die Rückschlüsse auf Personen zulassen – etwa Scoring-Werte, Kundenprofile oder automatisierte Entscheidungen.

Besonders heikel wird es, wenn KI-Systeme für Profiling eingesetzt werden, also für die automatisierte Verarbeitung personenbezogener Daten zur Bewertung bestimmter Aspekte einer Person. Denk an Kreditwürdigkeitsprüfungen, automatisierte Bewerbersichtung oder personalisierte Preisgestaltung – all das fällt unter die strengen Regelungen der DSGVO, insbesondere unter Artikel 22, der automatisierte Entscheidungsfindung betrifft.

⚠️ Achtung

Auch die Eingabe von Kundendaten in externe KI-Tools wie ChatGPT, Google Gemini oder Claude stellt eine Datenübermittlung dar – oft sogar in ein Drittland außerhalb der EU. Ohne geeignete Rechtsgrundlage und vertragliche Absicherung ist das ein DSGVO-Verstoß, der empfindliche Bußgelder nach sich ziehen kann.

KI Datenschutz DSGVO – https://inventivo.de

Rechtsgrundlagen für KI-Datenverarbeitung nach DSGVO

Jede Verarbeitung personenbezogener Daten braucht eine Rechtsgrundlage – das ist einer der Grundpfeiler der DSGVO und gilt natürlich auch für KI-Anwendungen. Artikel 6 der DSGVO listet sechs mögliche Rechtsgrundlagen auf, von denen in der Praxis vor allem drei für KI-Projekte relevant sind.

Die Einwilligung (Art. 6 Abs. 1 lit. a) ist die naheliegendste, aber oft auch die unpraktischste Grundlage. Sie muss freiwillig, informiert, spezifisch und unmissverständlich sein – und jederzeit widerrufbar. Bei KI-Systemen, die mit großen Datenmengen arbeiten, ist es häufig kaum möglich, von jeder betroffenen Person eine wirksame Einwilligung einzuholen, insbesondere wenn Trainingsdaten aus verschiedenen Quellen stammen.

Deutlich praxisrelevanter ist die Vertragserfüllung (Art. 6 Abs. 1 lit. b). Wenn du etwa einen KI-Chatbot einsetzt, der Kundenanfragen beantwortet, und die Datenverarbeitung für die Erfüllung des Vertrags mit dem Kunden erforderlich ist, kann diese Rechtsgrundlage greifen. Allerdings ist hier Vorsicht geboten: „Erforderlich“ meint wirklich erforderlich – nicht nur praktisch oder wünschenswert. Einen KI-Chatbot für dein Unternehmen einzusetzen ist grundsätzlich möglich, erfordert aber sorgfältige Abwägung.

Die in der Praxis häufigste Grundlage für KI-Projekte ist das berechtigte Interesse (Art. 6 Abs. 1 lit. f). Hier musst du eine Interessenabwägung vornehmen: Dein berechtigtes Interesse an der KI-Nutzung wird gegen die Rechte und Freiheiten der betroffenen Personen abgewogen. Diese Abwägung muss dokumentiert werden und nachvollziehbar sein – ein Punkt, den viele Unternehmen schlicht vergessen.

💡 Praxis-Tipp

In meiner täglichen Arbeit mit Kunden sehe ich, dass die Interessenabwägung nach Art. 6 Abs. 1 lit. f oft unterschätzt wird. Mein Rat: Dokumentiere für jede KI-Anwendung separat, welches berechtigte Interesse du verfolgst, welche Daten verarbeitet werden, welche Auswirkungen das auf Betroffene hat und warum dein Interesse überwiegt. Diese Dokumentation ist im Ernstfall Gold wert.

Datenschutz-Folgenabschätzung für KI-Projekte

Vielleicht hast du den Begriff Datenschutz-Folgenabschätzung (DSFA) schon gehört – bei KI-Projekten ist sie besonders häufig Pflicht. Artikel 35 der DSGVO schreibt eine DSFA vor, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen mit sich bringt. Und genau das ist bei vielen KI-Anwendungen der Fall.

Konkret wird eine DSFA insbesondere dann erforderlich, wenn du KI für systematische und umfassende Bewertung persönlicher Aspekte einsetzt (Profiling), wenn du besondere Kategorien personenbezogener Daten verarbeitest (Gesundheitsdaten, biometrische Daten) oder wenn du eine systematische Überwachung öffentlich zugänglicher Bereiche durchführst – etwa durch Computer-Vision-Systeme. Auch der Einsatz neuer Technologien, zu denen KI zweifelsfrei gehört, kann eine DSFA auslösen.

Eine ordentliche DSFA für ein KI-Projekt umfasst mehrere Bestandteile: eine systematische Beschreibung der Verarbeitungsvorgänge und ihrer Zwecke, eine Bewertung der Notwendigkeit und Verhältnismäßigkeit, eine Bewertung der Risiken für die Rechte und Freiheiten der Betroffenen sowie die geplanten Abhilfemaßnahmen. Das klingt nach viel Aufwand – und das ist es auch. Aber es schützt dich nicht nur vor Bußgeldern, sondern zwingt dich auch dazu, dein KI-Projekt wirklich durchzudenken, bevor du es ausrollst.

Was ich in über 20 Jahren Webentwicklung gelernt habe: Die Unternehmen, die solche Prozesse ernst nehmen, fahren langfristig deutlich besser als diejenigen, die erst reagieren, wenn die Aufsichtsbehörde anklopft. Eine gute KI-Strategie für den Mittelstand berücksichtigt den Datenschutz von Anfang an – nicht als Hindernis, sondern als Qualitätsmerkmal.

KI Datenschutz DSGVO und der EU AI Act: Was sich ändert

Neben der DSGVO gibt es seit 2024 einen weiteren wichtigen Rechtsrahmen: den EU AI Act. Während die DSGVO den Schutz personenbezogener Daten regelt, adressiert der EU AI Act die Sicherheit und Vertrauenswürdigkeit von KI-Systemen insgesamt. Beide Regelwerke ergänzen sich – und beide musst du als Unternehmen im Blick haben.

Der EU AI Act klassifiziert KI-Systeme in verschiedene Risikokategorien: von minimalem Risiko (etwa Spamfilter) über begrenztes Risiko (etwa Chatbots, die als KI gekennzeichnet werden müssen) bis hin zu Hochrisiko-Systemen (etwa KI in der Personalauswahl oder Kreditvergabe) und verbotenen Anwendungen (etwa Social Scoring). Je nach Risikokategorie gelten unterschiedliche Pflichten – von Transparenzanforderungen bis hin zu umfassenden Konformitätsbewertungen.

Für den Datenschutz bedeutet das: Wenn dein KI-System als Hochrisiko eingestuft wird, musst du nicht nur die DSGVO einhalten, sondern zusätzlich die Anforderungen des EU AI Act erfüllen. Das umfasst unter anderem ein Risikomanagementsystem, Anforderungen an die Datenqualität, technische Dokumentation, menschliche Aufsicht und Transparenzpflichten. Spannend wird es bei der Frage, wie sich die beiden Regelwerke in der Praxis verzahnen – hier gibt es noch viele offene Punkte, die erst durch Rechtsprechung und Leitlinien der Aufsichtsbehörden geklärt werden.

ℹ️ Gut zu wissen

Der EU AI Act trat im August 2024 in Kraft, die meisten Pflichten werden aber erst stufenweise bis 2026 wirksam. Verbotene Praktiken gelten bereits seit Februar 2025, Transparenzpflichten für KI-Systeme mit begrenztem Risiko ab August 2025. Hochrisiko-Anforderungen greifen vollständig ab August 2026. Wer sich jetzt vorbereitet, hat einen klaren Vorteil.

Betroffenenrechte bei automatisierten Entscheidungen

Einer der sensibelsten Bereiche im Zusammenspiel von KI und Datenschutz betrifft die automatisierte Entscheidungsfindung. Artikel 22 DSGVO gibt betroffenen Personen das Recht, nicht einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung unterworfen zu werden, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt.

Was heißt das konkret? Wenn deine KI automatisch entscheidet, ob ein Kunde einen Kredit bekommt, ob ein Bewerber zum Vorstellungsgespräch eingeladen wird oder ob ein Versicherungsantrag abgelehnt wird – dann hat die betroffene Person das Recht, diese Entscheidung anzufechten, eine menschliche Überprüfung zu verlangen und eine Erklärung der Entscheidungslogik zu erhalten. Und genau hier wird es für viele KI-Systeme herausfordernd, denn komplexe Machine-Learning-Modelle sind oft sogenannte „Black Boxes“, deren Entscheidungswege sich nur schwer nachvollziehen lassen.

Darüber hinaus haben Betroffene natürlich auch alle anderen DSGVO-Rechte: das Recht auf Auskunft (welche Daten verarbeitet die KI über mich?), das Recht auf Berichtigung, das Recht auf Löschung und das Recht auf Datenübertragbarkeit. Gerade das Auskunftsrecht stellt Unternehmen vor Herausforderungen, weil sie erklären müssen, welche Daten in welcher Form von der KI verarbeitet werden – inklusive der Logik, Tragweite und angestrebten Auswirkungen der automatisierten Verarbeitung.

✅ So machst du es richtig

  • Menschliche Überprüfungsinstanz bei automatisierten Entscheidungen einbauen
  • Transparente Information über den Einsatz von KI in Datenschutzerklärung
  • Erklärbarkeit der KI-Entscheidungen sicherstellen (Explainable AI)
  • Widerspruchsmöglichkeit aktiv kommunizieren
  • Regelmäßige Überprüfung auf Diskriminierung und Bias
❌ Typische Fehler

  • Vollautomatische Entscheidungen ohne menschliche Kontrolle
  • Kein Hinweis auf KI-Einsatz in der Datenschutzerklärung
  • Black-Box-Modelle ohne jede Erklärbarkeit einsetzen
  • Betroffenenanfragen zu KI-Entscheidungen ignorieren
  • Keine Prüfung auf algorithmische Diskriminierung

Technische und organisatorische Maßnahmen: Privacy by Design für KI

Die DSGVO verlangt in Artikel 25 den Grundsatz „Privacy by Design“ – Datenschutz muss bereits bei der Entwicklung und Implementierung von Systemen berücksichtigt werden, nicht erst nachträglich. Für KI-Projekte bedeutet das, dass du technische und organisatorische Maßnahmen (TOMs) von Anfang an mitdenken musst.

Auf der technischen Seite gehören dazu Maßnahmen wie Datenminimierung (nur die Daten erheben und verarbeiten, die wirklich nötig sind), Pseudonymisierung und Anonymisierung wo immer möglich, Verschlüsselung bei der Datenübertragung und -speicherung, Zugriffskontrollen und Berechtigungskonzepte sowie regelmäßige Sicherheitsaudits. Bei KI-Systemen kommen spezifische Anforderungen hinzu: etwa die Überprüfung der Trainingsdaten auf Qualität und Bias, die Dokumentation der Modellarchitektur und der verwendeten Daten sowie Mechanismen zur Erklärbarkeit der KI-Ausgaben.

Mindestens genauso wichtig sind die organisatorischen Maßnahmen. Dazu gehört die Schulung deiner Mitarbeiter im Umgang mit KI-Tools – denn die beste technische Absicherung nützt nichts, wenn ein Mitarbeiter bedenkenlos komplette Kundendatensätze in ein externes KI-Tool kopiert. Ein Beispiel aus einem aktuellen Projekt: Ein mittelständisches Unternehmen hatte zwar eine KI-Richtlinie erstellt, aber nie kommuniziert. Das Ergebnis: Die Mitarbeiter nutzten ChatGPT nach eigenem Ermessen, teilweise mit sensiblen Kundendaten. Erst eine strukturierte Schulung und klare Nutzungsrichtlinien haben die Herausforderung gelöst.

Wer sich grundsätzlich mit dem Einsatz von ChatGPT im Unternehmen beschäftigt, sollte diese organisatorischen Aspekte unbedingt von Anfang an mitdenken – die Technik allein macht noch keinen datenschutzkonformen Einsatz.

💡 Praxis-Tipp

Erstelle eine interne KI-Nutzungsrichtlinie, die klar regelt: Welche KI-Tools dürfen genutzt werden? Welche Daten dürfen eingegeben werden? Wer ist verantwortlich? Wie werden Ergebnisse geprüft? Diese Richtlinie muss nicht hundert Seiten lang sein – ein klar strukturiertes Dokument von zwei bis drei Seiten reicht oft aus, wenn es von allen verstanden und gelebt wird.

Cloud-KI datenschutzkonform nutzen: Internationale Datentransfers

Die meisten KI-Dienste, die Unternehmen heute nutzen – ChatGPT von OpenAI, Google Gemini, Claude von Anthropic, Microsoft Copilot – laufen in der Cloud, und zwar überwiegend auf Servern in den USA. Das bringt ein zusätzliches Datenschutzproblem mit sich: den internationalen Datentransfer.

Seit dem Angemessenheitsbeschluss der EU-Kommission für die USA (EU-U.S. Data Privacy Framework) vom Juli 2023 ist die Übermittlung personenbezogener Daten an zertifizierte US-Unternehmen grundsätzlich wieder möglich. Allerdings müssen die jeweiligen Anbieter unter dem Data Privacy Framework zertifiziert sein – und du musst das auch überprüfen und dokumentieren. Zudem bleibt das Risiko, dass auch dieses Abkommen vor dem EuGH angefochten wird, wie es bereits bei Safe Harbor und Privacy Shield der Fall war.

Für die Praxis bedeutet das: Du brauchst nicht nur eine Rechtsgrundlage für die Datenverarbeitung selbst, sondern auch für die Datenübermittlung in das Drittland. Zusätzlich solltest du Standardvertragsklauseln (Standard Contractual Clauses, SCCs) als zusätzliche Absicherung vereinbaren und ein Transfer Impact Assessment durchführen, das die Risiken des konkreten Transfers bewertet.

Eine Alternative, die ich bei datenschutzsensiblen Projekten zunehmend empfehle, ist der Einsatz von On-Premise-KI-Lösungen oder europäischen Cloud-Anbietern. Modelle wie Llama von Meta oder Mistral können auf eigenen Servern oder bei europäischen Hostern betrieben werden – die Daten verlassen dann nie die EU. Das erfordert zwar mehr technisches Know-how und Infrastruktur, löst aber die Herausforderung des internationalen Datentransfers elegant.

✅ Cloud-KI (z. B. ChatGPT API)

  • Schnell einsatzbereit, geringe Einstiegshürde
  • Leistungsfähige Modelle, regelmäßige Updates
  • Skalierbar ohne eigene Infrastruktur
  • Geringere IT-Kosten für Betrieb
❌ Datenschutz-Herausforderungen

  • Datenübermittlung in Drittländer (oft USA)
  • Begrenzte Kontrolle über Datenverarbeitung
  • Abhängigkeit vom Anbieter und dessen Policies
  • Risiko bei Änderung der Rechtsgrundlage für Transfers

Vielleicht fragst du dich jetzt, ob du dann besser komplett auf Cloud-KI verzichten solltest. Meine Einschätzung: Nein, aber du solltest differenzieren. Für die Verarbeitung sensibler personenbezogener Daten – Gesundheitsdaten, Finanzdaten, HR-Daten – empfehle ich europäische oder On-Premise-Lösungen. Für allgemeine Aufgaben wie KI-gestützte Content-Erstellung, bei denen keine personenbezogenen Daten in die KI fließen, sind Cloud-Dienste mit entsprechender vertraglicher Absicherung in der Regel vertretbar.

Datenschutz-Impact verschiedener KI-Modelle

Nicht jede KI ist gleich – und das gilt auch für den Datenschutz. Die verschiedenen KI-Technologien bringen jeweils eigene Herausforderungen mit sich, die du kennen solltest.

Large Language Models (GPT, Claude, Gemini etc.) verarbeiten Texteingaben und generieren Textausgaben. Das Datenschutzrisiko liegt hier vor allem in den Eingaben: Wenn Mitarbeiter Kundendaten, Vertragsinhalte oder persönliche Informationen eingeben, werden diese an den Anbieter übermittelt. Zudem besteht das Risiko, dass das Modell in seinen Ausgaben Informationen aus den Trainingsdaten reproduziert, die personenbezogen sein könnten – ein Phänomen, das als „Data Leakage“ bekannt ist.

Computer-Vision-Systeme (Bilderkennung, Gesichtserkennung, Videoanalyse) verarbeiten häufig biometrische Daten, die nach Art. 9 DSGVO als besondere Kategorien personenbezogener Daten gelten und einem noch strengeren Schutz unterliegen. Der Einsatz von Gesichtserkennung etwa im Einzelhandel oder am Arbeitsplatz ist datenschutzrechtlich hochproblematisch und in vielen Fällen schlicht unzulässig.

Empfehlungssysteme und Scoring-Modelle erstellen Profile von Nutzern und treffen Vorhersagen über deren Verhalten oder Eigenschaften. Hier greift das Profiling-Verbot aus Art. 22 DSGVO besonders stark, und die Anforderungen an Transparenz und Erklärbarkeit sind hoch. Gleichzeitig sind diese Systeme oft die wirtschaftlich wertvollsten KI-Anwendungen – ein Spannungsfeld, das sorgfältig navigiert werden muss.

KI-gestützte Automatisierung – etwa in der Prozessautomatisierung oder bei der automatischen Bearbeitung von Kundenanfragen – verarbeitet oft personenbezogene Daten als Teil eines größeren Workflows. Hier ist besonders wichtig, dass die gesamte Verarbeitungskette DSGVO-konform gestaltet ist, nicht nur die KI-Komponente selbst. Wer sich für die Automatisierung von Website-Prozessen interessiert, sollte diesen Aspekt von Anfang an berücksichtigen.

Auftragsverarbeitung und KI-Verträge

Wenn du einen externen KI-Dienst nutzt, der in deinem Auftrag personenbezogene Daten verarbeitet, brauchst du einen Auftragsverarbeitungsvertrag (AVV) nach Art. 28 DSGVO. Das gilt für die API-Nutzung von OpenAI genauso wie für KI-Funktionen in deinem CRM, deinem E-Mail-Marketing-Tool oder deinem Shopsystem.

Ein ordentlicher AVV für KI-Dienste sollte einige spezifische Punkte adressieren, die über einen Standard-AVV hinausgehen: Was passiert mit den Daten, die du in die KI eingibst? Werden sie für das Training des Modells verwendet? Wie lange werden sie gespeichert? Wo werden sie verarbeitet? Welche Unterauftragsverarbeiter sind beteiligt? Gerade der Punkt des Modelltrainings ist kritisch – viele KI-Anbieter nutzen standardmäßig die Eingaben ihrer Nutzer, um ihre Modelle zu verbessern, was datenschutzrechtlich höchst herausfordernd ist.

⚠️ Achtung

OpenAI bietet für die API-Nutzung mittlerweile einen AVV an und erklärt, API-Daten nicht für das Modelltraining zu verwenden. Bei der kostenlosen ChatGPT-Nutzung sieht das anders aus – hier werden Eingaben standardmäßig für das Training genutzt, sofern du das nicht in den Einstellungen deaktivierst. Für den geschäftlichen Einsatz solltest du daher immer die API oder die Enterprise-Version nutzen und den AVV sorgfältig prüfen.

Neben dem AVV empfehle ich, für jedes KI-Projekt eine Verarbeitungsdokumentation zu erstellen, die den konkreten Einsatzzweck, die verarbeiteten Datenkategorien, die Rechtsgrundlage, die Speicherdauer und die technischen und organisatorischen Maßnahmen beschreibt. Diese Dokumentation gehört in dein Verzeichnis der Verarbeitungstätigkeiten nach Art. 30 DSGVO – ein Dokument, das ohnehin Pflicht ist, aber von vielen Unternehmen stiefmütterlich behandelt wird.

KI Datenschutz DSGVO: Haftungsrisiken und Bußgelder

Kommen wir zu einem Thema, das die Aufmerksamkeit der Geschäftsführung garantiert: die Konsequenzen bei Verstößen. Die DSGVO sieht Bußgelder von bis zu 20 Millionen Euro oder 4 Prozent des weltweiten Jahresumsatzes vor – je nachdem, welcher Betrag höher ist. Und die Aufsichtsbehörden machen davon zunehmend Gebrauch, auch im KI-Kontext.

Italien hat 2023 ChatGPT vorübergehend gesperrt und OpenAI ein Bußgeld von 15 Millionen Euro auferlegt – unter anderem wegen fehlender Rechtsgrundlage für die Verarbeitung personenbezogener Daten beim Modelltraining und mangelnder Transparenz. Die polnische Datenschutzbehörde hat ein Unternehmen sanktioniert, das KI-basiertes Scoring ohne ausreichende Transparenz und ohne Datenschutz-Folgenabschätzung eingesetzt hat. Und auch die deutschen Aufsichtsbehörden schauen zunehmend genauer hin.

Neben den Bußgeldern drohen weitere Risiken: Betroffene können Schadensersatzansprüche geltend machen, Aufsichtsbehörden können die Datenverarbeitung untersagen (was dein KI-Projekt komplett stoppen kann), und der Reputationsschaden durch einen öffentlich gewordenen Datenschutzverstoß ist oft gravierender als das Bußgeld selbst. Gerade für Unternehmen, die Vertrauen als Geschäftsgrundlage haben – und das sind im B2B-Bereich fast alle –, kann ein Datenschutzskandal im Zusammenhang mit KI verheerend sein.

Dabei ist es gar nicht so kompliziert, die gröbsten Risiken zu vermeiden. Die meisten Bußgelder resultieren nicht aus komplexen Grenzfällen, sondern aus grundlegenden Versäumnissen: fehlende Rechtsgrundlage, keine Datenschutz-Folgenabschätzung, mangelnde Transparenz, kein AVV mit dem KI-Anbieter. All das lässt sich mit einem strukturierten Vorgehen vermeiden.

Praxis-Checkliste: KI DSGVO-konform implementieren

Nach all der Theorie wird es Zeit für die Praxis. Die folgende Checkliste fasst die wichtigsten Schritte zusammen, die du bei der Einführung eines KI-Systems aus Datenschutzsicht beachten solltest. Dabei geht es nicht um eine erschöpfende rechtliche Prüfung – die solltest du mit deinem Datenschutzbeauftragten oder einem spezialisierten Anwalt durchführen –, sondern um die wesentlichen Eckpunkte, die in keinem KI-Projekt fehlen dürfen.

✅ Checkliste: KI DSGVO-konform einführen

  • ☑️ Prüfen, ob und welche personenbezogenen Daten die KI verarbeitet
  • ☑️ Rechtsgrundlage für die Datenverarbeitung identifizieren und dokumentieren
  • ☑️ Datenschutz-Folgenabschätzung durchführen (bei hohem Risiko Pflicht)
  • ☑️ Auftragsverarbeitungsvertrag mit dem KI-Anbieter abschließen
  • ☑️ Internationalen Datentransfer prüfen und absichern (SCCs, DPF-Zertifizierung)
  • ☑️ Verarbeitungstätigkeit im Verzeichnis nach Art. 30 DSGVO dokumentieren
  • ☑️ Datenschutzerklärung um KI-Verarbeitung ergänzen
  • ☑️ Betroffenenrechte sicherstellen (Auskunft, Widerspruch, Löschung)
  • ☑️ Interne KI-Nutzungsrichtlinie erstellen und kommunizieren
  • ☑️ Mitarbeiter schulen – welche Daten dürfen in KI-Tools eingegeben werden?
  • ☑️ Technische Maßnahmen umsetzen (Verschlüsselung, Zugriffskontrollen, Datenminimierung)
  • ☑️ Regelmäßige Überprüfung und Anpassung der Maßnahmen einplanen
  • ☑️ EU AI Act Risikokategorie des KI-Systems bestimmen und Pflichten prüfen

Diese Checkliste ist bewusst als Orientierung gedacht – nicht als Ersatz für eine individuelle rechtliche Bewertung. Jedes KI-Projekt ist anders, und die konkreten Anforderungen hängen von vielen Faktoren ab: der Art der verarbeiteten Daten, dem Einsatzzweck, dem gewählten KI-Anbieter, der Branche und vielem mehr. Wer gerade erst anfängt, sich mit KI für Unternehmen zu beschäftigen, sollte den Datenschutz von Tag eins an mitdenken – nachträgliches Flicken ist immer teurer und aufwändiger.

Häufige Datenschutz-Fehler bei KI vermeiden

Zum Abschluss des inhaltlichen Teils möchte ich dir die Fehler zeigen, die mir in der Praxis am häufigsten begegnen – und die sich mit etwas Aufmerksamkeit leicht vermeiden lassen.

Fehler 1: „Wir nutzen ja nur ChatGPT, das ist doch kein richtiges KI-Projekt.“ Doch, ist es. Sobald du über ChatGPT, Copilot oder ein anderes KI-Tool personenbezogene Daten verarbeitest, gelten alle DSGVO-Anforderungen. Und selbst wenn du „nur“ allgemeine Texte generierst, kann die Nutzung eines US-Dienstes datenschutzrechtliche Fragen aufwerfen, die geklärt werden müssen.

Fehler 2: Keine Datenschutz-Folgenabschätzung für KI-Projekte. Viele Unternehmen überspringen die DSFA, weil sie den Aufwand scheuen oder nicht wissen, dass sie Pflicht ist. Gerade bei KI-Anwendungen, die Kundendaten analysieren, automatisierte Entscheidungen treffen oder neue Technologien einsetzen, ist eine DSFA aber in den allermeisten Fällen erforderlich.

Fehler 3: Mitarbeiter nutzen KI-Tools unkontrolliert. Sogenannte „Shadow AI“ – die Nutzung von KI-Tools ohne Wissen und Genehmigung des Unternehmens – ist eines der größten Datenschutzrisiken. Wenn Mitarbeiter eigenständig Kundendaten in kostenlose KI-Tools eingeben, hast du als Unternehmen ein massives Problem, das du möglicherweise nicht einmal bemerkst.

Fehler 4: Die Datenschutzerklärung wurde nicht aktualisiert. Wenn du KI-Tools einsetzt, die personenbezogene Daten verarbeiten, muss deine Datenschutzerklärung darüber informieren – inklusive der Angabe der Rechtsgrundlage, des Zwecks, eventueller Drittlandtransfers und der Betroffenenrechte. Das wird erstaunlich oft vergessen.

Fehler 5: Kein Auftragsverarbeitungsvertrag mit dem KI-Anbieter. Die Nutzung eines externen KI-Dienstes ohne AVV ist ein klarer DSGVO-Verstoß. Und nein, die allgemeinen Geschäftsbedingungen des Anbieters ersetzen keinen AVV – auch wenn manche Anbieter das suggerieren.

⚠️ Achtung

Die deutschen Datenschutzaufsichtsbehörden haben 2024 eine gemeinsame Orientierungshilfe zum Einsatz von KI-Anwendungen veröffentlicht. Darin wird explizit betont, dass Unternehmen als Verantwortliche für die DSGVO-Konformität ihrer KI-Nutzung haften – unabhängig davon, ob der KI-Anbieter seinerseits die DSGVO einhält. Du kannst dich also nicht darauf berufen, dass „OpenAI das schon regelt“.

KI-Governance: Datenschutz als Teil der Unternehmensstrategie

Wenn du die bisherigen Abschnitte gelesen hast, wird dir aufgefallen sein, dass DSGVO-konforme KI-Nutzung kein einmaliges Projekt ist, sondern ein fortlaufender Prozess. Genau deshalb empfehle ich meinen Kunden, das Thema als Teil einer umfassenden KI-Governance zu betrachten – also einer strukturierten Herangehensweise, die Datenschutz, Ethik, Qualität und Compliance bei der KI-Nutzung zusammenführt.

Eine gute KI-Governance umfasst klare Verantwortlichkeiten (wer entscheidet über den Einsatz neuer KI-Tools?), definierte Prozesse (wie wird ein neues KI-Tool datenschutzrechtlich geprüft, bevor es eingesetzt wird?), regelmäßige Schulungen und Sensibilisierung der Mitarbeiter, ein Monitoring der eingesetzten KI-Systeme und ihrer Auswirkungen sowie eine regelmäßige Überprüfung und Anpassung an neue rechtliche Anforderungen.

Dabei muss KI-Governance nicht bedeuten, dass du ein riesiges Compliance-Team aufbaust. Gerade im Mittelstand reicht es oft, wenn eine Person – idealerweise in enger Abstimmung mit dem Datenschutzbeauftragten – das Thema koordiniert und die wichtigsten Prozesse etabliert. Der Schlüssel liegt nicht in der Perfektion, sondern in der Struktur: Wer weiß, was zu tun ist, und dokumentiert, was getan wurde, ist im Ernstfall deutlich besser aufgestellt als jemand, der „irgendwie“ mit KI arbeitet.

Bei einem Kunden haben wir kürzlich genau einen solchen Governance-Rahmen aufgesetzt – nicht als hundert Seiten starkes Regelwerk, sondern als pragmatisches System mit einer KI-Nutzungsrichtlinie, einem einfachen Freigabeprozess für neue Tools, einer Übersicht der eingesetzten KI-Dienste mit Datenschutzbewertung und einem vierteljährlichen Review. Der Aufwand war überschaubar, der Effekt enorm: Die Mitarbeiter wissen jetzt, was erlaubt ist und was nicht, die Geschäftsführung hat einen Überblick über die KI-Landschaft im Unternehmen, und im Fall einer Anfrage der Aufsichtsbehörde ist alles dokumentiert.

💡 Praxis-Tipp

Starte mit einer Bestandsaufnahme: Welche KI-Tools werden in deinem Unternehmen bereits genutzt – offiziell und inoffiziell? In meiner Erfahrung sind die meisten Geschäftsführer überrascht, wie viele KI-Anwendungen bereits im Einsatz sind, ohne dass es jemand zentral erfasst hat. Diese Bestandsaufnahme ist der erste und wichtigste Schritt zu einer DSGVO-konformen KI-Nutzung.

Branchenbeispiele: KI Datenschutz DSGVO in der Praxis

Zum Abschluss möchte ich dir anhand einiger konkreter Branchenbeispiele zeigen, wie unterschiedlich die Datenschutzanforderungen bei KI-Projekten ausfallen können – denn die Herausforderungen eines E-Commerce-Unternehmens sind ganz andere als die einer Arztpraxis oder eines Personaldienstleisters.

E-Commerce und Online-Shops: KI-gestützte Produktempfehlungen, personalisierte Preise, automatisierte Kundenkommunikation – all das verarbeitet personenbezogene Daten und erfordert eine saubere Rechtsgrundlage. Besonders bei personalisierten Preisen (Dynamic Pricing) basierend auf Nutzerprofilen bewegen sich Unternehmen auf dünnem Eis, weil hier schnell eine automatisierte Entscheidung mit erheblicher Auswirkung vorliegen kann. Wer einen Online-Shop mit KI-Texten betreibt, sollte zumindest sicherstellen, dass keine Kundendaten in die Texterstellung einfließen.

Marketing und Kommunikation: KI-gestützte Zielgruppenanalyse, automatisierte Newsletter-Personalisierung, Chatbots im Kundenservice – hier ist die Einwilligung oft die passende Rechtsgrundlage, insbesondere wenn es um Direktmarketing geht. Die Herausforderung liegt darin, die Einwilligung so zu gestalten, dass sie auch die KI-Verarbeitung abdeckt, und transparent zu kommunizieren, wie die KI die Daten nutzt.

Personalwesen: KI im Recruiting – etwa zur automatisierten Vorauswahl von Bewerbungen – ist datenschutzrechtlich besonders sensibel. Hier werden oft besondere Kategorien personenbezogener Daten verarbeitet (etwa wenn die KI aus Bewerbungsfotos auf Alter oder ethnische Herkunft schließt), und die Anforderungen an Transparenz und Nichtdiskriminierung sind extrem hoch. Art. 22 DSGVO greift hier besonders streng.

Gesundheitswesen: Der Einsatz von KI zur Diagnoseunterstützung, Therapieplanung oder Patientenverwaltung verarbeitet Gesundheitsdaten, die nach Art. 9 DSGVO besonders geschützt sind. Hier ist in der Regel eine ausdrückliche Einwilligung erforderlich, und der Einsatz von Cloud-KI-Diensten, die Daten in die USA übermitteln, ist praktisch ausgeschlossen – On-Premise-Lösungen oder zertifizierte europäische Anbieter sind hier Pflicht.

FAQ: Häufige Fragen zu KI Datenschutz DSGVO

Darf ich Kundendaten in ChatGPT eingeben?

Grundsätzlich nur unter strengen Voraussetzungen. Du brauchst eine Rechtsgrundlage für die Datenübermittlung an OpenAI (als US-Unternehmen), einen Auftragsverarbeitungsvertrag und musst sicherstellen, dass die Daten nicht für das Modelltraining verwendet werden. Bei der kostenlosen ChatGPT-Version ist das nicht gewährleistet – hier solltest du auf keinen Fall personenbezogene Daten eingeben. Die API-Version oder ChatGPT Enterprise bieten bessere Datenschutzoptionen, erfordern aber trotzdem eine sorgfältige Prüfung.

Brauche ich für jede KI-Anwendung eine Datenschutz-Folgenabschätzung?

Nicht für jede, aber für viele. Eine DSFA ist Pflicht, wenn die KI-Anwendung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten der Betroffenen mit sich bringt – etwa bei Profiling, bei der Verarbeitung besonderer Datenkategorien oder beim Einsatz neuer Technologien in großem Umfang. Im Zweifel empfehle ich, lieber eine DSFA durchzuführen als darauf zu verzichten – sie schadet nie und schützt im Ernstfall.

Wie informiere ich Kunden über den Einsatz von KI?

Über deine Datenschutzerklärung. Diese muss transparent darüber informieren, dass und wie du KI einsetzt, welche Daten verarbeitet werden, auf welcher Rechtsgrundlage, ob Daten in Drittländer übermittelt werden und welche Rechte die Betroffenen haben. Bei automatisierten Entscheidungen nach Art. 22 DSGVO musst du zusätzlich über die involvierte Logik und die Tragweite der Entscheidung informieren.

Gibt es DSGVO-konforme KI-Alternativen zu ChatGPT?

Ja, es gibt zunehmend europäische KI-Anbieter und Open-Source-Modelle, die auf eigenen Servern oder bei europäischen Hostern betrieben werden können. Modelle wie Mistral (Frankreich), Aleph Alpha (Deutschland) oder Open-Source-Modelle wie Llama bieten Alternativen, bei denen die Daten in der EU bleiben. Allerdings sind diese Lösungen technisch aufwändiger und nicht immer so leistungsfähig wie die großen US-Dienste.

Was passiert, wenn ich KI ohne Datenschutzprüfung einsetze?

Im besten Fall passiert nichts – im schlechtesten Fall drohen Bußgelder von bis zu 20 Millionen Euro oder 4 Prozent des Jahresumsatzes, Schadensersatzforderungen von Betroffenen und die Anordnung, die Datenverarbeitung einzustellen. Hinzu kommt das Reputationsrisiko. Die Aufsichtsbehörden nehmen KI-Anwendungen zunehmend in den Fokus, und die Wahrscheinlichkeit, dass ein Verstoß entdeckt wird – etwa durch eine Beschwerde eines Betroffenen –, steigt kontinuierlich.

Das Thema KI Datenschutz DSGVO mag auf den ersten Blick abschreckend wirken – aber mit einem strukturierten Vorgehen, den richtigen Verträgen und einer klaren internen Richtlinie lässt sich KI auch datenschutzkonform nutzen. Der Schlüssel liegt darin, den Datenschutz nicht als Bremse zu sehen, sondern als Rahmen, der Vertrauen schafft – bei Kunden, Mitarbeitern und Geschäftspartnern.

Du möchtest KI in deinem Unternehmen einsetzen – aber sicher und rechtskonform?

Ich unterstütze dich gerne dabei, die richtigen KI-Lösungen auszuwählen und datenschutzkonform zu implementieren – von der Bestandsaufnahme über die Strategie bis zur technischen Umsetzung.

Jetzt unverbindlich anfragen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kommentar abschicken

Weitere Artikel dieser Kategorie: