Copilot (zejména Copilot for Microsoft 365 a Copilot Chat s enterprise ochranou) umí zásadně zrychlit práci, ale zároveň otevírá otázky GDPR, rezidence dat a řízení rizik. Níže je praktický, technický přehled pro IT správce: co Copilot se služebního pohledu dělá s daty, jaké má záruky a jak jej bezpečně nasadit.
Jak Copilot pracuje s daty a co se kam posílá
- Orchestrace v tenantu: Copilot propojuje velké jazykové modely (LLM), obsah v Microsoft Graph (e‑maily, soubory, kalendář atd.) a Office aplikace. Přístup k datům vždy respektuje oprávnění uživatele a hranice tenantu. Prompty, odpovědi a data z Graphu se nepoužívají k trénování základních modelů. (Microsoft Learn)
- Aktivita uživatele (logy/“history”): Zadání a odpovědi Copilota se ukládají jako Copilot activity history, jsou šifrované, dá se na ně uplatnit retence a je možné je prohledat přes Microsoft Purview. Uživatel si historii může sám smazat v profilu My Account. (Microsoft Learn)
- Webové dotazy (Bing grounding): Když Copilot potřebuje veřejná fakta, vygeneruje krátký dotaz do služby Bing. Tyto dotazy jsou oddělené od vašich tenantových dat, nejsou sdíleny s inzerenty a nepoužívají se k tréninku foundation modelů. Pro webové dotazy je Microsoft samostatným správcem údajů (data controller) dle Microsoft Services Agreement. EU Data Boundary se na webové dotazy nevztahuje. (Microsoft Learn)
- EU Data Boundary (EUDB): Copilot pro Microsoft 365 má závazky k rezidenci dat v rámci EUDB; výpočty LLM se směrují do nejbližších datacenter v regionu s možností přepnutí při špičce, přičemž pro EU jsou uplatněny doplňkové záruky. (Microsoft Learn, Microsoft)
GDPR a smluvní závazky
- Role zpracování: U Copilot for Microsoft 365 a Copilot Chat s enterprise ochranou vystupuje Microsoft jako zpracovatel dle DPA (Data Protection Addendum) a Product Terms. Závazky pokrývají šifrování, izolaci tenantu, audit a retence. (Microsoft Learn)
- Soulad s GDPR: Microsoft deklaruje soulad Copilota s GDPR v rámci existujících závazků pro komerční Microsoft 365. Prompty/odpovědi nejsou použity k tréninku modelů. (Microsoft Learn)
- DPA aktuální znění: Podmínky zpracování osobních údajů jsou popsány v Microsoft Products and Services DPA (aktuální vydání). (Microsoft)
Nejčastější omyly, které zvyšují riziko
- “Copilot má přístup ke všemu.” Nemá – vidí jen to, co vidí uživatel. Přístupové modely SharePoint/OneDrive/Teams a Sensitivity labels se uplatní i pro Copilota; špatně nastavená oprávnění ale povedou k “legálnímu” úniku uvnitř firmy. (Microsoft Learn)
- Záměna enterprise Copilota s konzumní verzí. Bez enterprise data protection platí jiná pravidla, zejména u webových dotazů a licencí. Držte se tenantové verze v rámci M365. (Microsoft Learn)
- Podcenění konektorů/agentů. Při povolení Graph konektorů či agentů mohou dotazy a kontext odtékat do externí služby podle jejích podmínek – vždy čtěte terms/privacy daného agenta a povolujte jen prověřené. (Microsoft Learn)
Konfigurační zásady pro bezpečné nasazení
- Identita a přístup: Vynucujte MFA, Conditional Access, role s nejnižšími oprávněními (RBAC). Copilot vždy dědí oprávnění z Entra ID/M365. (Microsoft Learn)
- Klasifikace a šifrování: Nasazujte Microsoft Purview Sensitivity labels a AIP/IRM; Copilot práva respektuje. Nastavte retence a eDiscovery pro Copilot activity history. (Microsoft Learn)
- DLP a compliance: Aktivujte Data Loss Prevention zásady pro citlivé informace a sledujte auditní logy v Purview/Unified Audit Log. (Microsoft Learn)
- Web grounding pod kontrolou: V politikách Connected experiences omezte či zakažte web search pro týmy pracující s vysoce citlivými daty; počítejte s tím, že web dotazy nespadají pod EUDB a mají zvláštní pravidla zpracování. (Microsoft Learn)
- Konektory a agenti: Povolujte jen agenty/konektory, které opravdu potřebujete, z interního allowlistu, se schválenými terms/privacy. Zvažte oddělené skupiny a pilotní rollout. (Microsoft Learn)
- EU Data Boundary: Ověřte, zda konkrétní scénáře spadají do EUDB; sledujte výjimky pro služby, kde regionalizace není možná, a dopad na dataflow. (Microsoft Learn)
- Školení uživatelů: Proškolte, že Copilot je asistent, ne autorita; citlivý obsah se nemá vkládat do promptů zbytečně a výstupy se ověřují. (Microsoft Learn)
DPIA/ROPZ: co mít připravené
- Popis účelu zpracování: produktivita, sumarizace, generování obsahu.
- Kategorie údajů: pracovní dokumenty, metadata z Graphu, obsah promptů/odpovědí, aktivita Copilota.
- Právní základ a role: Microsoft jako zpracovatel v rámci M365; webové dotazy – Microsoft jako správce dle Services Agreement. (Microsoft Learn)
- Místa zpracování a přenosy: uveďte EU Data Boundary a specifika web dotazů mimo EUDB. (Microsoft Learn)
- Opatření: šifrování v klidu/přenosu, izolace tenantů, DLP, klasifikace, audit, řízení agentů/konektorů, školení. Využijte oficiální GDPR/DPIA guidance pro M365. (Microsoft Learn)
Rizikové scénáře a jak je ošetřit
- Příliš široká oprávnění v SharePointu/Teams: proveďte audit sdílení a princip least privilege. Copilot nic “neobchází”, jen zviditelní už existující chyby v oprávněních. (Microsoft Learn)
- Exfiltrace přes web grounding: citlivé útvary mohou mít web dotazy vypnuté; kde je necháte zapnuté, informujte o jejich zvláštním režimu zpracování. (Microsoft Learn)
- Prompt‑injection/obsahová rizika: Microsoft aplikuje filtry na škodlivý obsah a prompt‑injection ochranu, přesto designujte procesy s lidským dohledem. (Microsoft Learn)
- Rozšíření o agenty: vždy čtěte podmínky agenta, vyhněte se neověřeným integracím a omezte práva na minimum. (Microsoft Learn)
Shrnutí pro management
Copilot for Microsoft 365 i Copilot Chat s enterprise ochranou respektují oprávnění, nepoužívají vaše tenantová data k tréninku modelů, mají retenci/audit a pro EU zákazníky fungují v rámci EU Data Boundary (s výjimkou webových dotazů). Bezpečnost nasazení stojí na správě identit a oprávnění, klasifikaci a DLP, řízení web groundingu, kontrole konektorů/agentů a uživatelském školení. (Microsoft Learn)
Podělte se o své zkušenosti v komentářích.