EU AI Act: Nutzen Sie ChatGPT? Das müssen Sie beachten
63% aller ChatGPT-Prompts enthalten personenbezogene Daten. Der EU AI Act bringt ab August 2026 neue Pflichten – auch für KMU die KI-Tools einsetzen.
Weiterlesen
Künstliche Intelligenz (Artificial Intelligence) ist 2026 kein Zukunftsthema mehr. Sie ist Alltag. Ihre Mitarbeitenden nutzen ChatGPT, um E-Mails zu formulieren. Ihr Marketing erstellt Texte mit KI. Ihr Vertrieb lässt Angebote von Copilot vorschreiben. Und Ihre IT experimentiert mit KI-gestützten Analysetools. Datenschutz und künstliche Intelligenz müssen Unternehmen dabei zusammen denken.
Die Frage ist nicht, ob Ihr Unternehmen KI nutzt. Die Frage ist: Wissen Sie, wie – und ist es rechtskonform?
Denn mit dem EU AI Act und der bestehenden DSGVO gibt es gleich zwei Regelwerke, die den Einsatz von KI im Unternehmen regulieren. Wer das ignoriert, riskiert Bußgelder, Datenschutzverletzungen und Vertrauensverlust bei Kunden und Mitarbeitenden.
Der EU AI Act (Verordnung (EU) 2024/1689) ist das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz. Er wurde im Juni 2024 verabschiedet und wird schrittweise anwendbar:
| Zeitpunkt | Was gilt |
|---|---|
| Seit Februar 2025 | Verbote für KI-Systeme mit unannehmbarem Risiko (Social Scoring, manipulative KI, biometrische Echtzeit-Fernidentifikation in öffentlichen Räumen) |
| Seit August 2025 | Pflichten für Anbieter von General-Purpose-AI (GPAI) wie GPT-4, Gemini, Claude – Transparenzpflichten, technische Dokumentation |
| Ab August 2026 | Volle Anwendbarkeit für Hochrisiko-KI-Systeme – Konformitätsbewertung, Registrierung, Qualitätsmanagement |
| Ab August 2027 | Pflichten für bestimmte eingebettete KI-Systeme in regulierten Produkten |
Der AI Act teilt KI-Systeme in vier Risikokategorien ein:
1. Unannehmbares Risiko (verboten):
2. Hohes Risiko (strenge Auflagen):
3. Begrenztes Risiko (Transparenzpflichten):
4. Minimales Risiko (kaum reguliert):
Die meisten KI-Anwendungen im Unternehmensalltag – ChatGPT für Texterstellung, Copilot für E-Mails, KI-gestützte Datenanalyse – fallen in die Kategorien "begrenztes" oder "minimales Risiko". Bei KI-Systemen müssen Sie vor allem Transparenzpflichten beachten.
Aber: Wenn Sie KI im Personalbereich einsetzen (z.B. automatisiertes Bewerber-Screening), in der Kreditprüfung oder für sicherheitskritische Anwendungen, bewegen Sie sich im Hochrisikobereich. Dann gelten ab August 2026 umfassende Pflichten.
Detaillierte Beratung zum AI Act erhalten Sie auf unserer Seite AI Act Beratung.
Während der AI Act (auch als KI-Verordnung der EU bezeichnet) noch schrittweise in Kraft tritt, gilt die DSGVO bereits seit 2018 – und sie regelt den Einsatz von KI-Systemen, sobald personenbezogene Daten ins Spiel kommen. Und das ist fast immer der Fall. Die Datenschutzaufsichtsbehörden in Deutschland und Europa haben bereits mehrfach betont, dass bestehende datenschutzrechtliche Grundsätze auch für KI gelten. Der verantwortungsvolle Umgang mit personenbezogenen Daten ist beim KI-Einsatz keine Option, sondern Pflicht.
Immer dann, wenn Sie personenbezogene Daten in ein KI-System eingeben oder ein KI-System personenbezogene Daten verarbeitet – also sensible oder vertrauliche Informationen betroffen sind. Beispiele:
In all diesen Fällen müssen Sie die DSGVO-Anforderungen erfüllen.
Ein oft übersehener, aber zentraler datenschutzrechtlicher Aspekt beim Einsatz von KI ist die Datenschutz-Folgenabschätzung (DSFA) nach Art. 35 DSGVO. Immer dann, wenn eine Verarbeitung – insbesondere unter Nutzung neuer Technologien wie KI-Modelle – voraussichtlich ein hohes Risiko für die Rechte und Freiheiten betroffener Personen mit sich bringt, müssen Sie vorab eine DSFA durchführen.
Die Datenschutzaufsichtsbehörden haben in ihren Orientierungshilfen klargestellt, dass eine DSFA insbesondere dann erforderlich ist, wenn:
Die DSFA muss die Risiken für die Rechte der betroffenen Personen systematisch bewerten und nachvollziehbar dokumentieren, welche technischen und organisatorischen Maßnahmen diese Risiken mindern.
Der Grundsatz Privacy by Design (Datenschutz durch Technikgestaltung, Art. 25 DSGVO) hat beim Einsatz von KI-Systemen besondere Bedeutung. Bereits bei der Auswahl und Konfiguration von KI-Tools müssen Sie durch technische und organisatorische Maßnahmen sicherstellen, dass der Grundsatz der Datenminimierung eingehalten wird. Konkret bedeutet das:

Lassen Sie uns konkret werden. Was passiert, wenn Ihre Mitarbeitenden KI-Tools nutzen – und worauf müssen Sie achten?
Das Risiko: In der kostenlosen Version und in ChatGPT Plus werden Eingabedaten standardmäßig als Daten für das Training des Modells verwendet. Das bedeutet: Kundendaten, Vertragsinhalte oder interne Dokumente, die ein Mitarbeiter eingibt, können in die Trainingsdaten einfließen. Der datenschutzrechtlich Verantwortliche muss sicherstellen, dass personenbezogene Daten nicht unkontrolliert in Trainingsdaten gelangen.
Die Lösung: OpenAI bietet mit ChatGPT Enterprise und ChatGPT Team Versionen an, bei denen Eingabedaten nicht für das Training verwendet werden. Zusätzlich können Nutzer in den Einstellungen das Training deaktivieren. Für den Unternehmenseinsatz empfehlen wir ausschließlich die Enterprise-Variante mit entsprechendem AVV.
Das Risiko: Copilot ist in Microsoft 365 integriert und hat damit potenziell Zugriff auf E-Mails, Dokumente, Teams-Chats und SharePoint-Inhalte. Die Frage ist: Welche Daten verarbeitet Copilot, und wo?
Die Lösung: Microsoft verpflichtet sich im Rahmen des Data Processing Addendum (DPA), Daten innerhalb der EU zu verarbeiten (EU Data Boundary). Copilot-Prompts werden nicht für das Training verwendet. Dennoch sollten Sie die Berechtigungsstruktur in Ihrem M365-Tenant überprüfen – denn Copilot kann auf alles zugreifen, worauf der jeweilige Nutzer Zugriff hat.
Das Risiko: Ähnlich wie bei ChatGPT werden in der kostenlosen Version Eingabedaten zum Training verwendet. Die Datenspeicherung erfolgt global.
Die Lösung: Google Workspace mit Gemini Enterprise bietet vertragliche Zusicherungen zur Datenverarbeitung innerhalb der EU und zum Ausschluss von Trainingsdatennutzung.
Das größte Problem ist nicht der offizielle KI-Einsatz, den Sie steuern können. Es sind die Mitarbeitenden, die auf eigene Faust ChatGPT nutzen und dabei Kundendaten, Verträge oder interne Dokumente eingeben. Ohne KI-Richtlinie haben Sie keine Kontrolle darüber.
Eine KI-Richtlinie (auch: KI-Nutzungsrichtlinie oder AI Use Policy) ist das wichtigste Instrument, um den KI-Einsatz in Ihrem Unternehmen zu steuern. Sie definiert verbindlich, welche Regeln für die Nutzung von KI-Tools gelten.
1. Erlaubte und verbotene Tools Listen Sie konkret auf, welche KI-Tools für den Unternehmenseinsatz freigegeben sind. Alle anderen sind verboten. Das verhindert Schatten-KI.
2. Datenklassifizierung Definieren Sie, welche Daten in KI-Tools eingegeben werden dürfen und welche nicht:
3. Verantwortlichkeiten Wer ist für die Freigabe neuer KI-Tools zuständig? Wer überwacht die Einhaltung der Richtlinie? Wer ist Ansprechpartner bei Fragen?
4. Dokumentationspflichten Der AI Act verlangt Transparenz. Dokumentieren Sie, welche KI-Systeme Sie einsetzen, für welche Zwecke und mit welchen Daten.
5. Schulungspflicht Mitarbeitende müssen verstehen, warum die Richtlinie existiert und welche Risiken bestehen. Eine einmalige Information reicht nicht – planen Sie regelmäßige Schulungen ein.
| Kapitel | Inhalt |
|---|---|
| 1. Zweck und Geltungsbereich | Warum diese Richtlinie existiert, für wen sie gilt |
| 2. Begriffsdefinitionen | Was unter "KI-System", "personenbezogene Daten" etc. zu verstehen ist |
| 3. Grundsätze | Mensch-über-Maschine-Prinzip, Transparenz, Datensparsamkeit |
| 4. Freigegebene Tools | Liste der erlaubten KI-Anwendungen mit Nutzungsbedingungen |
| 5. Verbotene Nutzungen | Konkrete Beispiele, was nicht erlaubt ist |
| 6. Datenklassifizierung | Welche Daten dürfen eingegeben werden, welche nicht |
| 7. Verantwortlichkeiten | Rollen und Zuständigkeiten |
| 8. Vorfallmanagement | Was tun bei Datenschutzvorfall im KI-Kontext |
| 9. Schulung | Häufigkeit und Inhalt der Schulungen |
| 10. Inkrafttreten und Änderungen | Versionierung und Gültigkeitsdatum |
Wir beraten Unternehmen seit der Veröffentlichung von ChatGPT Ende 2022 zum datenschutzkonformen Einsatz von KI. Aus dieser Erfahrung haben sich fünf Regeln herauskristallisiert, die in der Praxis funktionieren:
1. Enterprise-Versionen verwenden Nutzen Sie ausschließlich Business- oder Enterprise-Varianten von KI-Tools. Nur dort haben Sie vertragliche Zusicherungen, dass Ihre Daten nicht für das Training verwendet werden.
2. Keine personenbezogenen Daten eingeben Schulen Sie Ihre Mitarbeitenden konsequent: Keine Namen, keine E-Mail-Adressen, keine Kundennummern in KI-Tools eingeben. Wenn möglich, anonymisieren Sie Daten vor der Eingabe.
3. AVVs abschließen Schließen Sie mit jedem KI-Anbieter einen Auftragsverarbeitungsvertrag ab. OpenAI, Microsoft und Google bieten dafür standardisierte DPAs an.
4. Datenschutzerklärung aktualisieren Informieren Sie Betroffene in Ihrer Datenschutzerklärung darüber, dass und wie Sie KI-Tools einsetzen. Benennen Sie die Tools, die Zwecke und die Rechtsgrundlage.
5. Verarbeitungsverzeichnis ergänzen Nehmen Sie KI-Anwendungen in Ihr Verarbeitungsverzeichnis nach Art. 30 DSGVO auf. Dokumentieren Sie Zweck, Rechtsgrundlage, Kategorien betroffener Personen und Empfänger.
Mehr zum Thema DSGVO-konformer ChatGPT-Einsatz finden Sie auf unserer Seite ChatGPT DSGVO-konform im Unternehmen.
Der Einsatz von künstlicher Intelligenz bietet Unternehmen enorme Chancen – von Effizienzgewinnen über bessere Kundenbetreuung bis hin zu neuen Geschäftsmodellen. Gleichzeitig bestehen datenschutzrechtliche Risiken, die ernst genommen werden müssen:
Chancen: KI bietet Unternehmen erhebliche Vorteile bei der Verwendung von KI in Geschäftsprozessen:
Risiken: Für den Datenschutz beim Einsatz von KI bestehen konkrete Gefahren:
Die Orientierungshilfe der Datenschutzaufsichtsbehörden (DSK) betont, dass Unternehmen die Nutzung von KI datenschutzkonform gestalten können – wenn sie die richtigen Prozesse und technische Maßnahmen implementieren.
2026 und 2027 werden entscheidende Jahre für KI-Regulierung:
Unternehmen, die jetzt ihre KI-Governance aufbauen, sind für diese Entwicklungen gewappnet. Wer wartet, wird unter Zeitdruck handeln müssen – wie bei der DSGVO 2018.
KI verbieten funktioniert nicht – Ihre Mitarbeitenden nutzen die Tools sowieso. Die Frage ist, ob sie es unkontrolliert tun oder mit klaren Regeln. Eine KI-Richtlinie ist kein Bremsklotz, sondern ein Enabler: Sie gibt Ihren Teams die Sicherheit, KI zu nutzen, ohne Datenschutzrisiken einzugehen.
Sie brauchen Unterstützung beim datenschutzkonformen KI-Einsatz?
Von der KI-Richtlinie über AVVs bis zur AI-Act-Vorbereitung – wir helfen Ihnen, KI sicher und rechtskonform in Ihrem Unternehmen einzusetzen.
Erstgespräch buchen →Ja, aber nur unter bestimmten Bedingungen. Sie benötigen eine Enterprise- oder Team-Version mit AVV, dürfen keine personenbezogenen Daten ohne Rechtsgrundlage eingeben und müssen die Nutzung in Ihrer Datenschutzerklärung und im Verarbeitungsverzeichnis dokumentieren. Die kostenlose Version von ChatGPT ist für den Unternehmenseinsatz mit personenbezogenen Daten nicht geeignet.
Wenn das KI-Tool in Ihrem Auftrag personenbezogene Daten verarbeitet – ja. Das ist bei den meisten Cloud-basierten KI-Diensten der Fall. Der Vertrag muss den datenschutzrechtlichen Anforderungen des Art. 28 DSGVO entsprechen. Prüfen Sie bei jedem Tool, ob ein DPA/AVV verfügbar ist, und schließen Sie ihn ab, bevor Sie das Tool nutzen.
Eine DSFA nach Art. 35 DSGVO ist immer dann erforderlich, wenn der Einsatz eines KI-Systems voraussichtlich ein hohes Risiko für die Rechte und Freiheiten betroffener Personen birgt. Das ist insbesondere der Fall bei automatisierten Entscheidungen, Verarbeitung sensibler Daten oder systematischer Überwachung. Die Datenschutzaufsichtsbehörden haben in ihrer Orientierungshilfe konkretisiert, wann eine DSFA Pflicht ist.
Die DSGVO schützt personenbezogene Daten – sie gilt immer, wenn KI personenbezogene Daten verarbeitet. Der AI Act reguliert KI-Systeme selbst – er stellt Anforderungen an die Sicherheit, Transparenz und Qualität von KI-Anwendungen, unabhängig davon, ob personenbezogene Daten verarbeitet werden. Beide Regelwerke gelten parallel.
Idealerweise teilen sich Datenschutzbeauftragter, IT-Leitung und Geschäftsführung die Verantwortung. Der externe Datenschutzbeauftragte berät zu DSGVO-Fragen, die IT steuert die technische Umsetzung, und die Geschäftsführung gibt die KI-Richtlinie frei. Bei Hochrisiko-KI-Systemen verlangt der AI Act zusätzlich ein Qualitätsmanagementsystem.
Wenn eine KI-Richtlinie existiert und die Nutzung nicht freigegebener Tools ausdrücklich untersagt, kann ein Verstoß arbeitsrechtliche Konsequenzen haben. Voraussetzung ist, dass die Richtlinie den Mitarbeitenden nachweislich bekannt gemacht wurde – idealerweise im Rahmen einer dokumentierten Schulung.
Sensible Daten – also besondere Kategorien personenbezogener Daten wie Gesundheitsdaten, biometrische Daten oder Daten zur ethnischen Herkunft – unterliegen nach Art. 9 DSGVO einem besonderen Schutz. Diese Daten dürfen grundsätzlich nicht in KI-Systeme eingegeben werden, es sei denn, es liegt eine ausdrückliche Einwilligung oder eine andere Ausnahme nach Art. 9 Abs. 2 DSGVO vor. Beim Umgang mit personenbezogenen Daten in KI-Modellen ist besondere Vorsicht geboten.
Unternehmen können KI datenschutzkonform nutzen, indem sie zunächst eine Rechtsgrundlage für die Verarbeitung personenbezogener Daten durch KI-Systeme sicherstellen — etwa das berechtigte Interesse nach Art. 6 Abs. 1 lit. f DSGVO. Bei hohem Risiko für betroffene Personen ist vorab eine DSFA nach Art. 35 DSGVO durchzuführen. Darüber hinaus sollten Unternehmen Enterprise-Versionen verwenden, bei denen die Eingabedaten nicht als Daten für das Training genutzt werden. Eine interne KI-Richtlinie regelt, welche Mitarbeitenden welche KI-Tools nutzen dürfen — so lassen sich rechtliche Risiken minimieren und der Datenschutz beim KI-Einsatz sicherstellen.
Ja. Die Datenschutzkonferenz (DSK) hat eine Orientierungshilfe zum datenschutzkonformen Einsatz von KI-Systemen veröffentlicht. Sie richtet sich an Unternehmen als Betreiber und konkretisiert die datenschutzrechtlichen Grundsätze für den KI-Einsatz — insbesondere zur Rechtsgrundlage, zur Datenschutz-Folgenabschätzung und zum Grundsatz der Datenminimierung. Für betroffene Personen ist die Orientierungshilfe ein wichtiger Hinweis, dass ihre Rechte auch beim Einsatz von KI-Systemen gewahrt werden müssen. Wir empfehlen jedem Unternehmen, das KI nutzt, diese Orientierungshilfe als Ausgangspunkt für die eigene KI-Richtlinie heranzuziehen.
Inhaltsverzeichnis
63% aller ChatGPT-Prompts enthalten personenbezogene Daten. Der EU AI Act bringt ab August 2026 neue Pflichten – auch für KMU die KI-Tools einsetzen.
WeiterlesenGastbeitrag: CutToFame Datenschutz Recht am eigenen Bild KI & Regulatorik Dein Gesicht ist dein Kapital – und gleichzeitig ein personenbezogenes Datum....
WeiterlesenHolen Sie sich die besten Praktiken für den Austausch von Cyber-Bedrohungsinformationen in der Branche, um Ihre Sicherheitsstrategie zu optimieren und sich
Weiterlesen
Über den Autor
Datenschutzberater & Geschäftsführer
Nils ist zertifizierter Datenschutzbeauftragter und Geschäftsführer der frag.hugo Informationssicherheit GmbH. Er berät mittelständische Unternehmen zu DSGVO, NIS2 und IT-Sicherheit – praxisnah und verständlich.
Vereinbaren Sie ein unverbindliches Erstgespräch mit unseren Experten. Wir beraten Sie persönlich zu Datenschutz, NIS2 und IT-Sicherheit.