Microsoft Copilot Datenschutz in Hamburg
EU Data Residency ist Opt-In – nicht Standard. Konfigurieren Sie Copilot richtig.
Microsoft Copilot DSGVO-konform konfigurieren — Tenant-Settings, DSFA und Berechtigungskonzept
Copilot ohne Admin-Konfiguration ist ein Datenleck
EU Data Residency ist nicht Standard
In der Standardkonfiguration kann Microsoft Daten global verarbeiten — auch in den USA. EU Data Residency muss im Admin Center aktiv eingeschaltet werden. Ohne diese Einstellung verstoßen Sie gegen die DSGVO.
Copilot sieht alles, was der Nutzer sieht
Copilot greift auf E-Mails, SharePoint, Teams und OneDrive zu. Fehlerhafte Berechtigungen bedeuten: Copilot kann sensible Daten in Antworten verwenden, die der Nutzer eigentlich nicht sehen sollte.
Datenabfluss ohne Audit-Logging
Ohne aktiviertes Audit-Logging wissen Sie nicht, welche Daten Copilot verarbeitet. Bei einer Prüfung durch den HmbBfDI fehlt Ihnen jede Dokumentationsgrundlage.
Persönliche Beratung + digitale Plattform
frag.hugo kombiniert persönliche Datenschutzberatung durch zertifizierte Datenschutzexperten mit einer digitalen Plattform für Ihr komplettes Datenschutzmanagement.
Warum Unternehmen in Hamburg sich für frag.hugo entscheiden
Tenant-Konfiguration
EU Data Residency, Speicherfristen, Sensitivity Labels — alle kritischen Einstellungen prüfen und setzen.
Berechtigungskonzept
SharePoint-Oversharing eliminieren, bevor Copilot sensible Daten exponiert.
DSFA für Copilot
Datenschutz-Folgenabschätzung nach Art. 35 DSGVO — zugeschnitten auf Ihre M365-Umgebung.
Admin-Checkliste
Konkrete Konfigurationsanleitung für Ihre IT-Abteilung.
Audit-Logging
Protokollierung aktivieren, damit Sie den KI-Einsatz nachweisen können.
Persönlich in Hamburg
Nils arbeitet direkt mit Ihrem IT-Admin — kein anonymes Ticket.
Copilot DSGVO-konform in 4 Schritten
Tenant-Audit
Aktuelle M365-Konfiguration prüfen: Data Residency, Berechtigungen, Labels.
DSFA durchführen
Risiken der Copilot-Nutzung bewerten und Schutzmaßnahmen dokumentieren.
Konfiguration härten
EU Data Residency aktivieren, Berechtigungen bereinigen, Audit-Logging einschalten.
Rollout begleiten
Schrittweise Einführung mit geschulten Nutzergruppen und Monitoring.
Das sagen unsere Mandanten
„Unsere M365-Umgebung wurde gehackt – Phishing trotz MFA. Nils hat die Meldung an die Behörde innerhalb der 72-Stunden-Frist durchgebracht. Ohne ihn hätten wir die Frist gerissen.“
„Fünf Tage vor unserer TÜV-Rezertifizierung fehlten uns die IT-Risikoanalyse und der Notfallplan. Nils hat das übers Wochenende geliefert. Der Auditor war begeistert.“
„Wir dachten, wir sind zu klein für einen externen DSB. Drei Mitarbeiter, Videoagentur. Aber unsere Auftraggeber aus dem Gesundheitswesen verlangten plötzlich AVVs und Nachweise. Nils hatte das in zwei Tagen aufgesetzt.“
„Für jeden ist Datenschutz wichtig. Und für uns ist es wichtig, eine pragmatische Lösung zu finden, wie Unternehmen ihren Datenschutz umsetzen — ohne dabei den Geschäftsbetrieb einzustellen.“
Nils Oehmichen — Geschäftsführer & Datenschutzberater, frag.hugo
Inhalt in Kürze
- Microsoft Copilot für Microsoft 365 greift auf E-Mails, Dokumente, Chats und Kalender zu — über den Microsoft Graph. EU Data Residency ist Opt-In, nicht Standard.
- Ohne Berechtigungskonzept exponiert Copilot für M365 sensible Daten: Personalakten, Bewerbungsunterlagen und Geschäftsgeheimnisse können in KI-generierten Antworten auftauchen.
- Eine Datenschutz-Folgenabschätzung (DSFA) nach Art. 35 DSGVO ist für den Einsatz von Copilot zwingend erforderlich.
- frag.hugo prüft Ihre Copilot-Konfiguration, führt die DSFA durch und begleitet den datenschutzkonformen Rollout.
Warum Microsoft Copilot ein Datenschutz-Thema ist

Microsoft 365 Copilot ist für viele Hamburger Unternehmen der naheliegendste Einstieg in die KI-Welt. Es ist in Microsoft 365 integriert, nutzt die vorhandene Infrastruktur und verspricht Produktivitätsgewinne bei alltäglichen Aufgaben in Word, Excel, Outlook und PowerPoint. Doch genau diese tiefe Integration macht Microsoft 365 Copilot aus datenschutzrechtlicher Sicht besonders sensibel — die Datenschutzrisiken werden häufig unterschätzt. Ohne Information Protection und richtige Konfiguration können vertrauliche Unternehmensdaten ungewollt in KI-generierten Antworten auftauchen.
EU Data Residency ist Opt-In – nicht Standard. Das bedeutet: Wenn Ihr IT-Admin nichts unternimmt, können Ihre Unternehmensdaten außerhalb der EU verarbeitet werden. Für Hamburger Unternehmen, die der Aufsicht des HmbBfDI unterliegen, ist das ein erhebliches Compliance-Risiko.
Was Microsoft Copilot mit Ihren Daten macht
Der Zugriff auf Ihr gesamtes Microsoft-365-Ökosystem
Copilot ist kein isoliertes Tool. Es greift auf alles zu, worauf der jeweilige Nutzer Zugriff hat:
- E-Mails in Outlook (einschließlich Anhängen)
- Dokumente in SharePoint und OneDrive
- Chats und Meetings in Teams
- Kalendereinträge und Kontakte
- Notizen in OneNote
Das bedeutet: Auf sämtliche personenbezogenen und vertraulichen Unternehmensdaten, die in Ihrem Microsoft-365-Tenant gespeichert sind, wird potenziell zugegriffen – Kundendaten, Mitarbeiterdaten, Geschäftsgeheimnisse, Bewerbungsunterlagen, Gesundheitsdaten aus BEM-Verfahren und mehr. Microsoft 365 Copilot kann aus diesen sensiblen Daten in Word, Excel und PowerPoint Antworten generieren und Zusammenfassungen erstellen. Besonders kritisch: E-Mails in Outlook und Dokumente in SharePoint werden gleichermaßen durchsucht — ohne dass der Nutzer kontrollieren kann, welche Quellen Copilot für Microsoft 365 heranzieht.
Die 30-Tage-Datenspeicherung
In der Standardeinstellung speichert Microsoft Copilot-Interaktionsdaten 30 Tage lang. Das umfasst die Prompts der Nutzer, die generierten Antworten und die referenzierten Quelldokumente. Diese Speicherung erfolgt zusätzlich zu den regulären Microsoft-365-Retention-Policies und muss separat konfiguriert werden.
Die fünf kritischen Konfigurationsfehler
1. EU Data Residency nicht aktiviert
Der gravierendste Fehler: EU Data Residency ist bei Microsoft Copilot eine Opt-In-Einstellung. Ohne aktive Konfiguration behält sich Microsoft vor, Daten in allen globalen Rechenzentren zu verarbeiten – einschließlich der USA. Für die DSGVO-Konformität muss diese Einstellung zwingend aktiviert werden.
So prüfen Sie es: Microsoft 365 Admin Center → Settings → Org Settings → Copilot → Data Residency.
2. Berechtigungskonzept nicht angepasst
Copilot respektiert die bestehenden Zugriffsrechte in Microsoft 365. Das klingt zunächst gut, offenbart aber ein häufiges Problem: Viele Unternehmen haben ihre SharePoint-Berechtigungen nie sauber konfiguriert. Wenn ein Mitarbeiter Zugriff auf Personalakten hat, die er eigentlich nicht sehen sollte, kann Copilot diese Daten in Antworten verwenden und damit sichtbar machen.
Vor dem Copilot-Rollout müssen Sie Ihr Berechtigungskonzept grundlegend überprüfen. Nutzen Sie die Microsoft-365-Berichte, um Oversharing zu identifizieren, und bereinigen Sie SharePoint-Berechtigungen konsequent.
3. Sensitivity Labels und Information Protection nicht konfiguriert
Microsoft Information Protection (MIP) Sensitivity Labels sind das wichtigste Werkzeug, um zu steuern, welche Dokumente Copilot verwenden darf und welche nicht. Ohne Labels behandelt Copilot alle Dokumente gleich – unabhängig davon, ob es sich um eine Speisekarte oder einen vertraulichen Arbeitsvertrag handelt.
Konfigurieren Sie Labels wie „Vertraulich – Kein KI-Zugriff” für besonders sensible Dokumente und schließen Sie diese von der Copilot-Verarbeitung aus.
4. Keine Datenschutz-Folgenabschätzung durchgeführt
Der Einsatz von Microsoft Copilot erfordert eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO. Die Gründe liegen auf der Hand: Copilot verarbeitet systematisch und umfassend personenbezogene Daten aus E-Mails, Word-Dokumenten und Excel-Tabellen, verwendet neue Technologien (LLMs — Large Language Models) und kann Profile über Mitarbeitende erstellen. Aus datenschutzrechtlicher Sicht ist eine DSFA zwingend erforderlich, um die Datenschutzrisiken zu bewerten. Ohne DSFA setzen Sie sich einem erheblichen Bußgeldrisiko aus — zumal sensible Daten in SharePoint und OneDrive besonders schutzbedürftig sind.
5. Audit-Logging nicht aktiviert
Microsoft bietet umfangreiche Protokollierungsmöglichkeiten für Copilot-Aktivitäten. Diese müssen jedoch aktiv eingerichtet werden. Ohne Audit-Logging können Sie nicht nachweisen, wie Copilot genutzt wird – und bei einer Prüfung durch den HmbBfDI fehlt Ihnen die Dokumentationsgrundlage. Gleichzeitig sollten Sie prüfen, ob bestimmte Copilot-Funktionen für sensible Bereiche zu deaktivieren sind, um die Datenschutzrisiken zu minimieren.
Microsoft-365-Datenflüsse verstehen — Microsoft Graph, LLMs und Ihre sensiblen Daten

Für Hamburger Unternehmen ist es entscheidend zu verstehen, wie Daten innerhalb von Microsoft 365 fließen, wenn Copilot aktiviert ist. Der Microsoft Graph aggregiert Informationen aus Outlook, Word, Excel, PowerPoint, SharePoint und Teams:
- Nutzer stellt Prompt → Copilot empfängt die Anfrage
- Microsoft Graph → Copilot durchsucht alle für den Nutzer zugänglichen Daten
- LLM-Verarbeitung → Die gefundenen Daten werden an eines der LLMs (Large Language Models) gesendet
- Antwortgenerierung → Das Modell erstellt eine Antwort mit Quellenverweisen
- Logging → Prompt und Antwort werden gespeichert (Standardmäßig 30 Tage)
An jedem dieser Schritte werden personenbezogene Daten verarbeitet. Jeder Schritt muss in Ihrer DSFA dokumentiert und bewertet werden.
Was IT-Administratoren konfigurieren müssen
Eine Checkliste für Ihre IT-Abteilung:
- EU Data Residency aktivieren – zwingend erforderlich
- Datenspeicherdauer anpassen – 30-Tage-Standard prüfen und ggf. reduzieren
- Berechtigungskonzept bereinigen – SharePoint-Oversharing eliminieren
- Sensitivity Labels einführen – besonders sensible Daten ausschließen
- Compliance-Richtlinien konfigurieren – DLP-Policies auf Copilot erweitern
- Audit-Logging aktivieren – für Nachweispflichten
- Conditional Access Policies – Copilot-Zugriff auf verwaltete Geräte beschränken
- Nutzergruppen definieren – Copilot schrittweise ausrollen, nicht pauschal freischalten
Die DSFA für Microsoft Copilot
Eine DSFA für Microsoft Copilot sollte mindestens folgende Aspekte abdecken:
- Verarbeitungszwecke: Produktivitätssteigerung, Texterstellung, Datenanalyse
- Datenkategorien: E-Mail-Inhalte, Dokumente, Chat-Verläufe, Metadaten
- Betroffene: Mitarbeitende, Kunden, Geschäftspartner
- Risiken: Unbefugter Zugriff durch Oversharing, Profilbildung, Datenabfluss
- Maßnahmen: EU Data Residency, Labels, Berechtigungskonzept, Schulungen
Welche Daten greift Microsoft Copilot zu?
Copilot für Microsoft 365 greift über den Microsoft Graph auf alle Daten zu, die dem jeweiligen Nutzer zugänglich sind. Das umfasst:
- Outlook: E-Mails, Anhänge, Kalendereinträge, Kontakte
- Word, Excel, PowerPoint: Alle Dokumente, auf die der Nutzer Zugriff hat
- Teams: Chat-Nachrichten, Kanalunterhaltungen, Meeting-Transkriptionen
- SharePoint und OneDrive: Alle Dateien und Ordner mit Leseberechtigung
- OneNote: Notizbücher und Sektionen
Microsoft betont, dass Copilot die bestehenden Zugriffsrechte respektiert. Das Risiko liegt nicht in neuen Zugriffen, sondern in der Aggregation: Copilot kann in einer einzigen Antwort Informationen aus E-Mails, Dokumenten und Chats zusammenführen, die ein Nutzer einzeln vielleicht nie gefunden hätte. Fehlerhafte Berechtigungen werden so erstmals sichtbar und datenschutzrechtlich relevant.
Copilot datenschutzkonform zu nutzen erfordert Vorarbeit
Der datenschutzrechtliche Einsatz von Copilot erfordert mehr als eine Administratoreinstellung. Unternehmen müssen:
- Berechtigungen bereinigen: Vor dem Rollout alle SharePoint-Sites, Teams und OneDrive-Ordner auf Oversharing prüfen
- Sensitivity Labels einführen: Vertrauliche Dokumente (Personalakten, Gesundheitsdaten, Geschäftsgeheimnisse) vom Copilot-Zugriff ausschließen
- Nutzungsrichtlinie erstellen: Welche Prompts sind erlaubt? Welche Daten dürfen in Copilot-Anfragen verwendet werden? Eine KI-Richtlinie regelt das verbindlich
- Schulungen durchführen: Nutzer müssen verstehen, wie Copilot funktioniert und welche datenschutzrechtlichen Grenzen gelten
Microsoft Copilot im Unternehmen und Bing Chat
Beachten Sie den Unterschied zwischen Copilot für Microsoft 365 (Unternehmenslizenz) und dem kostenlosen Bing Chat / Copilot: Bing Chat verwendet Microsoft-Daten und Internetquellen, greift aber nicht auf Ihre Unternehmensdaten zu. Copilot für M365 hingegen nutzt den Microsoft Graph und greift auf Ihre gesamte M365-Umgebung zu.
Für den Einsatz von Bing Chat im Unternehmen gelten ebenfalls datenschutzrechtliche Anforderungen — allerdings andere als für Copilot für M365. Beide müssen in Ihrer KI-Richtlinie berücksichtigt werden.
Grundlegende Informationen zur DSGVO-konformen Nutzung von Microsoft 365 finden Sie auf unserer Seite zu Microsoft 365 und DSGVO. Der HmbBfDI hat KI-Systeme als aktuellen Prüfschwerpunkt benannt.
Kann Microsoft Copilot auf meine Daten zugreifen?
Ja — Microsoft 365 Copilot kann auf alle Daten zugreifen, die dem jeweiligen Nutzer über den Microsoft Graph zugänglich sind. Dazu gehören E-Mails, Dokumente in SharePoint und OneDrive, Teams-Chats und Kalendereinträge. Es wird also auf alle Unternehmensdaten zugegriffen, für die der Nutzer Leserechte besitzt. Deshalb ist ein sauberes Berechtigungskonzept vor dem Rollout unverzichtbar.
Wie sicher ist Microsoft Copilot?
Die Sicherheit von Microsoft 365 Copilot hängt maßgeblich von Ihrer Konfiguration ab. Microsoft bietet Verschlüsselung, rollenbasierte Zugriffssteuerung und Compliance-Tools — aber ohne aktive Konfiguration durch Ihren IT-Admin bleiben Datenschutzrisiken bestehen. Insbesondere die EU Data Residency muss aktiviert, Sensitivity Labels müssen konfiguriert und Copilot-Funktionen für sensible Bereiche sollten gegebenenfalls deaktiviert werden.
Ist Microsoft Office 365 DSGVO-konform?
Microsoft Office 365 (jetzt Microsoft 365) kann DSGVO-konform betrieben werden — erfordert aber erhebliche Konfigurationsarbeit. Microsoft stellt einen DPA (Data Processing Agreement) bereit, die EU Data Boundary ist verfügbar und datenschutzrechtlicher Schutz wird durch Sensitivity Labels und DLP-Policies unterstützt. Dennoch haben deutsche Aufsichtsbehörden wiederholt Bedenken geäußert, insbesondere hinsichtlich Telemetrie-Daten und US-Datenübertragungen. Ein datenschutzrechtlicher Check Ihrer M365-Konfiguration ist daher dringend empfohlen.
Nächste Schritte — Microsoft Copilot datenschutzkonform nutzen
Microsoft 365 Copilot kann ein mächtiges Werkzeug sein – wenn die datenschutzrechtlichen Grundlagen stimmen. Gehen Sie nicht davon aus, dass Microsoft die DSGVO-Konformität für Sie sicherstellt. Die Verantwortung liegt bei Ihnen als datenverarbeitendem Unternehmen. Ob Word, Excel, PowerPoint oder Outlook — in jeder Anwendung müssen Sensitivity Labels, Berechtigungen und Information Protection korrekt konfiguriert sein, bevor Copilot für Microsoft 365 sensible Unternehmensdaten verarbeitet.
Hugo DSB unterstützt Sie bei der DSFA für Copilot, der Erstellung einer Konfigurationscheckliste für Ihre IT und der laufenden Compliance-Überwachung. Nils hilft Ihnen, Copilot so einzurichten, dass es den Anforderungen des HmbBfDI standhält.
Buchen Sie ein kostenloses Erstgespräch – wir prüfen gemeinsam Ihre Copilot-Konfiguration und identifizieren Handlungsbedarf.
Microsoft Copilot & Datenschutz — Ihre Fragen
Nein, Microsoft Copilot ist in der Standardkonfiguration nicht datenschutzkonform. Die KI greift auf Unternehmensdaten in Word, Excel, Outlook und Teams zu und kann dabei auf sensible Informationen zugreifen, die datenschutzrechtlich geschützt sind. Ohne gezielte Konfiguration in Microsoft 365 – insbesondere EU Data Residency, Sensitivity Labels und Information Protection – besteht ein erhebliches Risiko für den Datenschutz.
Microsoft Copilot wird auf E-Mails in Outlook, Dokumente in Word, Tabellen in Excel, Präsentationen in PowerPoint und Chats in Teams zugegriffen – also auf sämtliche Unternehmensdaten in Ihrem Microsoft-365-Tenant. Das bedeutet: Die KI kann potenziell auf sensible Personalakten, Finanzdaten und Kundenkommunikation zugreifen und daraus Inhalte generieren. Ein Berechtigungskonzept und Information Protection sind datenschutzrechtlich zwingend erforderlich.
In der Standardkonfiguration speichert Microsoft Copilot Interaktionsdaten 30 Tage lang – ein Risiko für den Datenschutz, wenn sensible Unternehmensdaten verarbeitet werden. Diese Frist kann im Microsoft 365 Admin Center angepasst werden. Beachten Sie, dass auch die Retention Policies Ihrer Microsoft-365-Compliance-Einstellungen auf Copilot-Daten wirken und datenschutzrechtlich dokumentiert werden müssen.
Ja, der Einsatz von Microsoft 365 Copilot erfordert eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO. Die KI greift auf E-Mails, Dokumente und Chats zu und kann aus sensiblen Unternehmensdaten automatisch Inhalte generieren. Das Risiko für Betroffene – insbesondere Mitarbeitende, deren Daten in Word, Outlook oder Excel verarbeitet werden – ist erheblich und muss datenschutzrechtlich bewertet werden.
Ihre IT-Abteilung muss für den datenschutzkonformen Einsatz von Microsoft 365 Copilot mindestens folgende Einstellungen konfigurieren: EU Data Residency aktivieren, Datenspeicherdauer festlegen, Berechtigungskonzept für Copilot-Zugriff definieren, Sensitivity Labels und Information Protection auf sensible Dokumente in Word, Excel und Outlook anwenden sowie die Protokollierung im Audit Log aktivieren.
Der wichtigste Schutz ist ein striktes Berechtigungskonzept: Microsoft Copilot kann nur auf Daten zugreifen, auf die der jeweilige Nutzer in Microsoft 365 bereits Zugriff hat. Sensitivity Labels und Information Protection verhindern, dass die KI auf als sensibel klassifizierte Dokumente zugegriffen wird und daraus Inhalte generieren kann. Wir beraten Sie beim Datenschutz-Konzept für Ihren Microsoft 365 Copilot – damit das Risiko beherrschbar bleibt.
EU Data Residency
Standard-Datenspeicherung
Bußgelder bei unseren Mandanten
Microsoft Copilot rollt aus — in vielen Hamburger Unternehmen ohne Datenschutz-Prüfung. Der HmbBfDI hat KI-Systeme im Fokus. Handeln Sie, bevor eine Beschwerde kommt.
Jetzt absichern — Erstgespräch buchenInformationssicherheit & Datenschutz in Hamburg
Hamburg ist einer der wichtigsten Wirtschaftsstandorte Deutschlands. Ob Logistik, Maritime Wirtschaft, Medien, E-Commerce oder Finanzdienstleister — jede Branche hat eigene Datenschutzanforderungen.
Als Unternehmen mit Sitz in Hamburg kennen wir den lokalen Markt und die Hamburgische Beauftragte für Datenschutz und Informationsfreiheit (HmbBfDI). Wir wissen, wie die Behörde arbeitet und worauf sie bei Prüfungen achtet.
Unser Büro in der Spaldingstraße 64-68, 20097 Hamburg steht Ihnen für persönliche Vor-Ort-Termine offen.
Nils Oehmichen & Jens Hagel — Ihre Ansprechpartner
Jetzt Erstgespräch vereinbaren
Oder: Lassen Sie Ihre Website kostenlos prüfen — in 60 Sekunden wissen Sie, wo Sie stehen.
Unverbindlich, persönlich, ohne versteckte Kosten.