extreme close up photo of codes on screen
Photo by ThisIsEngineering on Pexels.com

Copilot in Microsoft 365 richtig konfigurieren

Für einen datenschutzgerechten Einsatz von Microsoft 365 Copilot ist eine sorgfältige Konfiguration durch die IT-Administration unerlässlich, da die Standardeinstellungen oft nicht den notwendigen Sicherheitsanforderungen entsprechen. Die zentrale Steuerung erfolgt im Microsoft 365 Admin Center unter dem Menüpunkt „Copilot“ > „Einstellungen“.

1. Benutzerzugriff und Sichtbarkeit steuern

Administratoren können festlegen, in welchem Kontext Copilot eingeblendet wird. Über die Option „Microsoft 365 Copilot Chat anheften“ wird der Assistent in Teams, Outlook und der M365-App mandantenweit sichtbar.

  • Wichtig: Dies betrifft auch Nutzer ohne Copilot-Lizenz, die dann eine eingeschränkte Chat-Variante sehen.
  • Self-Service-Käufe: Ein kritischer Punkt ist die Option „Microsoft 365 Copilot Self-Service-Käufe“. Hier sollte festgelegt werden, ob Nutzer eigenständig Lizenzen erwerben oder Testversionen starten dürfen, um eine unkontrollierte Lizenzverteilung zu verhindern.

2. Websuche und Datenzugriff einschränken

Die Websuche ist einer der sensibelsten Punkte, da sie eine Trennung zwischen internem Arbeitsmodus und externem Webmodus ermöglicht.

  • Konfiguration: Diese wird über eine Cloudrichtlinie im Microsoft 365 Apps Admin Center (config.office.com) gesteuert. Die Richtlinie „Websuche in Copilot zulassen“ verhindert, dass Copilot im Arbeitskontext gleichzeitig Unternehmensdaten und externe Webquellen (via Bing) verarbeitet.
  • Datenfluss: Sobald die Websuche aktiv ist, verlassen anonymisierte Anfragen die regionale Service-Grenze, was bei Datenschutzbewertungen zwingend zu berücksichtigen ist.

3. Governance für Agenten und externe Modelle

Ohne restriktive Vorgaben droht ein unübersichtlicher Bestand an KI-Agenten mit unterschiedlichen Datenquellen.

  • Agents: Administratoren müssen festlegen, welche Typen von Agenten installiert werden dürfen und welche Gruppen Zugriff darauf haben.
  • Externe LLMs: Über die Option „KI-Anbieter für andere große Sprachmodelle“ können Modelle außerhalb der Microsoft-Infrastruktur eingebunden werden. Dies sollte nur nach genauer Prüfung der Datenflüsse erfolgen, da Prompts in diesem Fall den Tenant verlassen.

4. Copilot-Aktionen (Teams und Bildgenerierung)

Unter „Copilot-Aktionen“ lassen sich gezielte Fähigkeiten steuern:

  • Teams-Besprechungen: Copilot ist in Teams ohne aktivierte Transkription funktionslos. Die IT muss entscheiden, ob Transkripte gespeichert oder verworfen werden. Fehlende Aufbewahrungsregeln führen hier schnell zu Datenschutzproblemen oder dem Verlust der Nachvollziehbarkeit.
  • Bildgenerierung: Es kann konfiguriert werden, ob Copilot eigene Bilder erzeugen darf oder nur auf Stock-Bilder zugreift.

5. Das Fundament: Berechtigungen und DLP

Ein oft unterschätztes Risiko ist das bestehende Berechtigungsmodell. Copilot nutzt exakt die vorhandenen Zugriffe eines Nutzers. Jede Fehlkonfiguration bei SharePoint-Bibliotheken oder Teams-Kanälen führt dazu, dass Copilot sensible Inhalte (z. B. Personaldaten) im Dialog leichter abrufbar macht.

  • Best Practice: Vor dem Rollout müssen Berechtigungen und Gruppenmitgliedschaften konsolidiert werden.
  • Absicherung: Nutzen Sie Microsoft Purview Audit Logs zur Überwachung und Data Loss Prevention (DLP)-Regeln mit Copilot-Bezug, um den Abfluss besonders geschützter Inhalte zu verhindern.

Fazit für die Administration: Ein kontrollierter Betrieb ist nur möglich, wenn Benutzerzugriff, Websuche, Agenten-Governance und Berechtigungen nicht isoliert, sondern als Gesamtpaket betrachtet und schrittweise (z. B. über Pilotgruppen) eingeführt werden.