Externe KI-Tools wie ChatGPT, Cloud-Analyse-Dienste oder automatisierte Übersetzungen gehören für viele KMU bereits zum Arbeitsalltag. Doch sobald echte Kundendaten in Prompts eingegeben werden, entsteht eine datenschutzrechtliche Herausforderung. Die Weitergabe personenbezogener Informationen an Drittanbieter unterliegt strengen Anforderungen der DSGVO und des neuen EU AI Act.
Dieser Artikel erklärt, wann Sie Kundendaten anonymisieren oder pseudonymisieren müssen, welche rechtlichen Rahmenbedingungen gelten und wie Sie in der Praxis vorgehen – konstruktiv, praxisnah und ohne unnötige Komplexität.
Bitte beachten Sie, dass dieser Artikel keine Rechtsberatung ersetzt und es sich hier ausschließlich um Empfehlungen und unsere Tipps handelt.

Was sind personenbezogene Daten und warum sind sie in KI-Prompts kritisch?
Personenbezogene Daten sind nach der DSGVO alle Informationen, die sich auf eine identifizierbare natürliche Person beziehen. Dazu gehören nicht nur offensichtliche Angaben wie Name, E-Mail-Adresse oder Telefonnummer, sondern auch Kundennummern, IP-Adressen, Standortdaten oder Verhaltensprofile. Sobald Sie solche Daten in einen Prompt eingeben, findet eine Datenverarbeitung und meist auch eine Übermittlung an Dritte statt.
Externe KI-Tools wie ChatGPT, Google Gemini oder spezialisierte Cloud-Dienste werden meist von Anbietern außerhalb der EU betrieben oder nutzen Server in Drittländern. Damit unterliegen sie strengen Anforderungen der DSGVO, insbesondere den Regeln zur Auftragsverarbeitung (Art. 28 DSGVO) und zum Datentransfer in Drittländer (Art. 44 ff. DSGVO). Ohne geeignete Schutzmaßnahmen riskieren Unternehmen Rechtsverstöße.
Hinzu kommt der EU AI Act, der seit August 2024 in Kraft getreten ist und ab 2025/2026 schrittweise angewendet wird. Er verpflichtet Anbieter und Nutzer von KI-Systemen zu Transparenz, Risikomanagement und Datenschutz-Folgenabschätzungen, insbesondere bei Hochrisiko-Anwendungen. Auch wenn viele externe KI-Tools für KMU nicht in die Hochrisiko-Kategorie fallen, bleibt die datenschutzrechtliche Verantwortung bestehen: Wer personenbezogene Daten verarbeitet, muss Rechtsgrundlage, Zweckbindung und technisch-organisatorische Maßnahmen nachweisen können.
Praxisbeispiel: Ein Online-Shop nutzt ChatGPT, um Kundenbeschwerden zu analysieren und Antwortvorschläge zu generieren. Dabei kopiert ein Mitarbeiter eine E-Mail inklusive Name, Bestellnummer und Adresse in den Prompt. Ohne Anonymisierung liegt hier eine Datenübermittlung an OpenAI (USA) vor, potenziell DSGVO-widrig, falls keine ausreichenden Garantien bestehen.
Anonymisierung vs. Pseudonymisierung: Die entscheidenden Unterschiede
Beide Begriffe werden oft synonym verwendet, haben aber unterschiedliche rechtliche und praktische Konsequenzen. Das Verständnis dieser Unterschiede ist zentral für die rechtskonforme Nutzung von KI-Tools.
Anonymisierung bedeutet, dass personenbezogene Daten so verändert werden, dass die betroffene Person nicht mehr identifizierbar ist. Nach erfolgreicher Anonymisierung gelten die Daten nicht mehr als personenbezogen im Sinne der DSGVO. Das bedeutet: Die strengen Vorschriften der Verordnung (Rechtsgrundlage, Betroffenenrechte, Meldepflichten) entfallen. Anonymisierung ist der „Gold-Standard” für den Einsatz von externen KI-Tools, da sie maximale Rechtssicherheit bietet.
Typische Verfahren umfassen das Entfernen oder Ersetzen direkter Identifikatoren (Name, E-Mail, Kundennummer), das Aggregieren von Daten (z. B. „Altersgruppe 30–40″ statt Geburtsdatum) und das Hinzufügen von Rauschen oder Generalisierung. Wichtig: Anonymisierung muss so robust sein, dass eine Re-Identifikation auch mit zusätzlichem Wissen oder durch Kombination mehrerer Datensätze praktisch ausgeschlossen ist.
Pseudonymisierung hingegen ersetzt direkte Identifikatoren durch Pseudonyme (z. B. Kunden-ID statt Name), lässt aber die Möglichkeit der Re-Identifikation offen durch Zuordnung über eine getrennt gespeicherte Zuordnungstabelle. Pseudonymisierte Daten bleiben personenbezogen und unterliegen weiterhin der DSGVO. Allerdings wird Pseudonymisierung in Art. 25 und 32 DSGVO als technisch-organisatorische Maßnahme anerkannt und kann das Risiko einer Verarbeitung senken.
Für den Einsatz in externen KI-Tools bedeutet das: Pseudonymisierung allein reicht nicht aus, um die DSGVO-Pflichten zu umgehen. Sie ist aber ein wichtiger Baustein in einem mehrschichtigen Schutzkonzept in Kombination mit Auftragsverarbeitungsverträgen, verschlüsselter Übertragung und Zugriffskontrollen.
Praxisbeispiel: Ein Beratungsunternehmen möchte Kundenfeedback mit einem KI-Tool auswerten. Variante A (Anonymisierung): Alle Namen, Firmennamen und Kontaktdaten werden entfernt, Altersangaben in Kategorien zusammengefasst, nur allgemeine Themen bleiben erhalten. Variante B (Pseudonymisierung): Namen werden durch IDs ersetzt, die Zuordnungstabelle bleibt intern gespeichert. Nur Variante A erlaubt die Nutzung ohne DSGVO-Auflagen; Variante B erfordert weiterhin Rechtsgrundlage und Schutzmaßnahmen.

Praktische Handlungsempfehlungen: So nutzen Sie Kundendaten rechtskonform in KI-Tools
Die rechtlichen Anforderungen klingen komplex, doch in der Praxis lassen sich mit klaren Prozessen und bewährten Methoden Kundendaten sicher und effizient in KI-Anwendungen einsetzen. Die folgenden Schritte helfen KMU, Risiken zu minimieren und Compliance zu gewährleisten.
Schritt 1: Datenklassifikation und Bedarfsanalyse
Prüfen Sie vor jeder KI-Nutzung, welche Daten wirklich notwendig sind. Oft lassen sich Analysen, Texterstellung oder Übersetzungen auch mit anonymisierten oder synthetischen Daten durchführen. Fragen Sie sich: Muss die KI wissen, wer der Kunde ist, oder reicht der Inhalt? In vielen Fällen genügt es, Kontext und Sachverhalt zu übermitteln, ohne Identifikatoren.
Schritt 2: Anonymisierung als Standard etablieren
Entwickeln Sie interne Richtlinien, die Anonymisierung zur Regel machen. Technische Hilfsmittel wie Skripte, Datenmasken oder spezialisierte Software (z. B. ARX Data Anonymization Tool, Microsoft Presidio) können den Prozess automatisieren. Achten Sie darauf, dass nicht nur direkte Identifikatoren entfernt werden, sondern auch indirekte (z. B. seltene Kombinationen von Merkmalen).
Schritt 3: Auftragsverarbeitungsverträge und Drittlandtransfer prüfen
Falls Anonymisierung nicht möglich oder praktikabel ist, müssen Sie mit dem KI-Anbieter einen Auftragsverarbeitungsvertrag (AVV) nach Art. 28 DSGVO abschließen. Dieser regelt Pflichten, Weisungsrechte und technische Schutzmaßnahmen. Bei Anbietern außerhalb der EU (z. B. OpenAI, Google) sind zusätzlich Standardvertragsklauseln (SCC) und ggf. weitere Garantien (Verschlüsselung, Datenlokalisierung) erforderlich. Viele Anbieter stellen mittlerweile DSGVO-konforme Verträge und EU-Hosting-Optionen bereit – prüfen Sie diese aktiv.
Schritt 4: Zweckbindung und Transparenz sicherstellen
Informieren Sie Ihre Kunden in der Datenschutzerklärung darüber, dass und zu welchem Zweck ihre Daten ggf. in KI-Systemen verarbeitet werden. Holen Sie bei sensiblen Daten oder neuen Zwecken eine Einwilligung ein (Art. 6 Abs. 1 lit. a DSGVO) oder stützen Sie sich auf berechtigte Interessen (Art. 6 Abs. 1 lit. f DSGVO) – dokumentieren Sie die Abwägung.
Schritt 5: Technische und organisatorische Maßnahmen umsetzen
Neben Anonymisierung und Pseudonymisierung gehören dazu: Zugriffskontrollen (wer darf Prompts mit Kundendaten erstellen?), Verschlüsselung (Ende-zu-Ende, Transport), Protokollierung (Nachvollziehbarkeit), regelmäßige Schulungen der Mitarbeitenden und Löschkonzepte (Daten nur so lange wie nötig vorhalten).
Schritt 6: EU AI Act im Blick behalten
Der EU AI Act verlangt von Nutzern bestimmter KI-Systeme, dass sie die Ausgaben auf Verzerrungen und Diskriminierung überwachen, menschliche Aufsicht gewährleisten und Transparenz gegenüber Betroffenen herstellen. Auch wenn externe KI-Tools für Standardanwendungen meist nicht als Hochrisiko-Systeme gelten, sollten Sie dokumentieren, wie Sie Risiken bewerten und welche Schutzmaßnahmen Sie ergreifen. Dies stärkt Ihre Rechenschaftspflicht (Art. 5 Abs. 2 DSGVO) und kann im Ernstfall Haftungsrisiken mindern.
Praxisbeispiel: Ein Steuerberatungsbüro nutzt ein KI-Tool zur Analyse von Mandantendaten. Vor der Eingabe werden Namen, Adressen und Steuernummern durch generische Platzhalter ersetzt und numerische Werte gerundet. Der Anbieter des Tools hat einen AVV und SCC unterzeichnet, die Datenübertragung erfolgt verschlüsselt. Mitarbeitende werden halbjährlich zu Datenschutz und KI geschult. So wird das Risiko auf ein vertretbares Maß gesenkt.
Fazit
Der Einsatz von Kundendaten in externen KI-Tools ist für KMU eine Gratwanderung zwischen Innovation und Compliance. Mit dem richtigen Verständnis der rechtlichen Anforderungen und klaren Prozessen lässt sich diese Herausforderung jedoch konstruktiv meistern. Die wichtigsten Erkenntnisse im Überblick:
- Anonymisierung bietet maximale Rechtssicherheit: Irreversibel anonymisierte Daten unterliegen nicht mehr der DSGVO und können bedenkenlos in KI-Prompts verwendet werden. Sie ist die erste Wahl, wann immer möglich.
- Pseudonymisierung allein genügt nicht: pseudonymisierte Daten bleiben personenbezogen und erfordern weiterhin Rechtsgrundlage, AVV und Schutzmaßnahmen. Sie sind aber ein wichtiger Baustein im Datenschutzkonzept.
- Auftragsverarbeitungsverträge und Drittlandtransfer-Garantien sind Pflicht: Bei Nutzung externer KI-Anbieter außerhalb der EU müssen AVV, Standardvertragsklauseln und technische Schutzmaßnahmen vorhanden sein.
- Zweckbindung, Transparenz und Dokumentation: Informieren Sie Kunden über KI-Nutzung, prüfen Sie Rechtsgrundlagen und dokumentieren Sie Ihre Abwägungen, das schützt im Ernstfall.
- EU AI Act und DSGVO Hand in Hand: Der neue EU AI Act ergänzt die DSGVO um Transparenz- und Risikomanagement-Pflichten. Auch bei Standard-Tools sollten die KMU ihre Verantwortung ernst nehmen und Prozesse etablieren.





