AI Wiki

Copilot 365: Технічна безпека

Детальний технічний аналіз безпеки Microsoft 365 Copilot для керівників та відділу інформаційної безпеки

copilotzero trustcompliancepurviewDLPconditional access

Технічна безпека Microsoft 365 Copilot

Цей розділ призначений для керівників, IT-адміністраторів та спеціалістів з інформаційної безпеки. Тут розглянуті архітектурні рішення, механізми захисту, інструменти моніторингу та конфігурації, необхідні для безпечного розгортання Microsoft 365 Copilot в організації.

ℹ️Інформація

Якщо ви шукаєте просту відповідь на питання "чи безпечний Copilot?" -- перейдіть до гіду для співробітників. Ця сторінка містить технічні деталі.


Zero Trust архітектура

Microsoft 365 Copilot побудований на принципах Zero Trust -- моделі безпеки, яка не довіряє жодному запиту за замовчуванням, навіть якщо він надходить з внутрішньої мережі.

Три принципи Zero Trust у контексті Copilot

Архітектура обробки запитів

Потік обробки запиту в Copilot:

  1. Користувач надсилає промпт через клієнт Microsoft 365 (Word, Teams тощо)
  2. Microsoft Entra ID аутентифікує користувача та перевіряє Conditional Access policies
  3. Microsoft 365 Copilot Orchestrator отримує запит та визначає необхідний контекст
  4. Microsoft Graph виконує пошук даних у тенанті з дотриманням прав доступу користувача (RBAC, ACL)
  5. Semantic Index знаходить релевантні фрагменти з проіндексованого контенту тенанта
  6. Azure OpenAI Service генерує відповідь на основі промпту та контексту (дані не зберігаються та не використовуються для тренування)
  7. Responsible AI фільтри перевіряють відповідь на шкідливий контент
  8. Відповідь повертається користувачу
⚠️Увага

Критичний момент: на кроці 4 Microsoft Graph повертає тільки ті дані, до яких користувач має доступ. Це означає, що oversharing (занадто широкі дозволи на файли та папки) -- головний ризик безпеки при розгортанні Copilot. Проведіть аудит прав доступу до впровадження.


Data Boundary та резидентність даних

Де обробляються дані

Microsoft 365 Copilot обробляє дані в тому ж географічному регіоні, де розташований ваш тенант Microsoft 365. Це визначається при створенні тенанта і відповідає Data Residency зобов'язанням Microsoft.

EU Data Boundary

Для тенантів у Європейському Союзі Microsoft забезпечує EU Data Boundary -- комплексне зобов'язання щодо обробки та зберігання даних виключно в межах ЄС:

  • Запити до Copilot обробляються на серверах у ЄС
  • Дані Microsoft Graph залишаються в ЄС
  • Логи та діагностика зберігаються в ЄС
  • Azure OpenAI inference виконується в ЄС

Транзит даних

Всі дані шифруються in transit (TLS 1.2+) та at rest (AES-256). Copilot використовує ті ж канали передачі даних, що й решта сервісів Microsoft 365 -- без додаткових зовнішніх з'єднань.


Сертифікації та compliance

Microsoft 365 Copilot успадковує compliance-статус платформи Microsoft 365 та Azure OpenAI Service:

ℹ️Інформація

Актуальні сертифікати та аудиторські звіти доступні для завантаження на Microsoft Service Trust Portal. Для доступу потрібен корпоративний обліковий запис Microsoft 365.


Microsoft Purview: DLP та Information Protection

Sensitivity Labels

Microsoft Purview Information Protection дозволяє класифікувати та захищати дані за допомогою sensitivity labels. Copilot повністю інтегрований з цією системою:

  • Copilot дотримується sensitivity labels при доступі до даних через Microsoft Graph
  • Відповіді Copilot успадковують найвищий рівень чутливості з використаних джерел
  • Документи, створені Copilot, отримують sensitivity label автоматично (якщо налаштовано auto-labeling)
  • Якщо label забороняє копіювання -- Copilot не зможе використати вміст документа

Рекомендована конфігурація labels для Copilot

Data Loss Prevention (DLP)

Microsoft Purview DLP дозволяє створити політики, що контролюють використання даних у Copilot:

  • Політики DLP можуть блокувати відображення конфіденційного контенту у відповідях Copilot
  • Типи чутливої інформації (credit card numbers, national ID тощо) автоматично виявляються та маскуються
  • Custom sensitive information types дозволяють додати специфічні для організації шаблони

Налаштування DLP для Copilot:

  1. Перейдіть до Microsoft Purview Compliance PortalData Loss PreventionPolicies
  2. Створіть або змініть політику, додавши location "Microsoft 365 Copilot"
  3. Визначте правила на основі типів чутливої інформації або sensitivity labels
  4. Оберіть дію: block, warn, або audit only
  5. Протестуйте в режимі "Test" перед увімкненням у production
⚠️Увага

Рекомендація: почніть з режиму audit only (тільки логування без блокування) на 2-4 тижні, щоб зрозуміти обсяг та характер даних, що обробляються через Copilot, перш ніж застосовувати блокування.


Conditional Access та контроль доступу

Conditional Access Policies для Copilot

Microsoft Entra Conditional Access дозволяє контролювати, хто, звідки та на яких пристроях може використовувати Copilot:

Рекомендовані політики:

  1. Вимога MFA -- обов'язкова багатофакторна аутентифікація для доступу до Copilot
  2. Compliant devices only -- доступ тільки з пристроїв, що відповідають корпоративним вимогам (Intune)
  3. Blocked locations -- заборона доступу з певних географічних регіонів або IP-адрес
  4. Risk-based access -- обмеження доступу при підвищеному ризику (Identity Protection)
  5. Session controls -- обмеження тривалості сесії та умови повторної аутентифікації

Налаштування:

  1. Microsoft Entra admin centerProtectionConditional AccessPolicies
  2. Створіть нову політику або змініть існуючу
  3. У Cloud apps or actions оберіть Microsoft 365 Copilot або Office 365 (включає Copilot)
  4. Налаштуйте умови (Conditions) та контролі доступу (Grant/Session)
ℹ️Інформація

Copilot не є окремим cloud app у Conditional Access -- він працює в контексті застосунків Microsoft 365 (Word, Teams тощо). Політики, застосовані до Office 365, автоматично поширюються на Copilot.

Керування ліцензіями

Copilot доступний тільки користувачам з відповідною ліцензією. Використовуйте групи Microsoft Entra ID для керування призначенням ліцензій:

  • Створіть групу безпеки "Copilot Users"
  • Призначте ліцензію Microsoft 365 Copilot цій групі
  • Додавайте користувачів поступово (поетапне розгортання)
  • Використовуйте dynamic membership rules для автоматизації

Аудит та моніторинг

Microsoft Purview Audit

Copilot логує активність у Microsoft Purview Audit (Standard та Premium):

Логовані події:

  • CopilotInteraction -- кожен запит до Copilot (промпт, застосунок, час)
  • CopilotSensitivityLabelApplied -- застосування sensitivity label до створених документів
  • CopilotDataAccess -- звернення до даних через Microsoft Graph у контексті Copilot

Перегляд логів:

  1. Microsoft Purview Compliance PortalAuditSearch
  2. Оберіть діапазон дат та фільтр Activities: Copilot activities
  3. Фільтруйте за користувачем, застосунком або типом події

Retention для логів Copilot

  • Audit Standard: зберігання логів 180 днів
  • Audit Premium (E5): зберігання до 1 року (налаштовується до 10 років)
⚠️Увага

Рекомендація для E5: увімкніть Audit Premium та налаштуйте retention policy мінімум на 1 рік для подій Copilot. Це необхідно для розслідування інцидентів та compliance-звітності.

Microsoft Defender for Cloud Apps

Якщо ваша організація використовує Microsoft Defender for Cloud Apps, ви можете:

  • Створювати anomaly detection policies для незвичної активності Copilot
  • Налаштувати alerts при підозрілих патернах використання
  • Інтегрувати з SIEM (Microsoft Sentinel або стороннім) для централізованого моніторингу

Мережева безпека

Мережеві з'єднання Copilot

Copilot використовує ті ж мережеві ендпоінти, що й решта сервісів Microsoft 365. Окремих портів або URL-адрес для Copilot відкривати не потрібно.

Рекомендації для мережевої безпеки:

  • Забезпечте доступ до Microsoft 365 endpoints згідно з категоріями Optimize, Allow, Default
  • Використовуйте Microsoft 365 network connectivity test для перевірки якості з'єднання
  • Не направляйте трафік Microsoft 365 через SSL inspection proxy -- це може порушити роботу Copilot та знизити продуктивність
  • За наявності VPN використовуйте split tunneling для трафіку Microsoft 365

Захист від data exfiltration

  • Copilot не створює нових каналів для виведення даних -- він працює через існуючі сервіси Microsoft 365
  • DLP-політики Microsoft Purview контролюють обмін даними через усі канали, включаючи Copilot
  • Sensitivity labels з шифруванням запобігають несанкціонованому доступу навіть у разі витоку

Responsible AI та контент-фільтри

Microsoft 365 Copilot включає вбудовані механізми Responsible AI:

  • Content Safety filters -- блокування генерації шкідливого, дискримінаційного або незаконного контенту
  • Grounding -- прив'язка відповідей до фактичних даних організації (зменшення галюцинацій)
  • Citations -- посилання на джерела у відповідях Copilot для верифікації
  • Meta-prompting -- системні інструкції, що обмежують поведінку моделі
  • Abuse monitoring -- автоматичне виявлення та блокування зловживань
ℹ️Інформація

Microsoft публікує Responsible AI Impact Assessments та Transparency Notes для кожного AI-продукту, включаючи Microsoft 365 Copilot.


Чек-лист підготовки до розгортання Copilot

Перед увімкненням Microsoft 365 Copilot для користувачів виконайте:

Права доступу

  • Проведіть аудит прав доступу до SharePoint sites та OneDrive
  • Виявіть та виправіть oversharing (файли/папки з доступом "Everyone" або "All Users")
  • Перевірте membership у Microsoft 365 Groups та Teams
  • Впровадіть принцип least privilege для доступу до файлів

Класифікація даних

  • Розгорніть Microsoft Purview sensitivity labels
  • Налаштуйте auto-labeling policies для автоматичної класифікації
  • Визначте DLP-політики для Copilot (починайте з audit mode)
  • Класифікуйте найбільш критичні сховища даних (SharePoint, OneDrive)

Доступ та аутентифікація

  • Налаштуйте Conditional Access policies для Copilot
  • Увімкніть MFA для всіх користувачів Copilot
  • Створіть групи безпеки для поетапного розгортання ліцензій
  • Перевірте налаштування Intune для compliant devices

Моніторинг

  • Увімкніть Microsoft Purview Audit для Copilot activities
  • Налаштуйте retention policies для audit logs
  • Створіть alerts для аномальної активності
  • Інтегруйте з SIEM за наявності

Навчання

  • Проведіть навчання для end-users (безпечне використання)
  • Проведіть навчання для IT-адміністраторів (моніторинг та реагування)
  • Підготуйте процедуру реагування на інциденти з Copilot
  • Створіть канал зворотного зв'язку для повідомлення про проблеми

Корисні посилання

Microsoft 365 Copilot Privacy Documentation

Офіційна документація Microsoft щодо приватності та захисту даних у Copilot

Microsoft Purview Information Protection

Налаштування sensitivity labels та auto-labeling

Conditional Access Documentation

Повна документація з Conditional Access policies

Microsoft Purview Audit

Налаштування аудиту та моніторингу активності Copilot

Корпоративні стандарти безпеки AI

Внутрішні правила класифікації даних та допустимого використання AI інструментів