Copilot 365: Технічна безпека
Детальний технічний аналіз безпеки Microsoft 365 Copilot для керівників та відділу інформаційної безпеки
📎ОФІЦІЙНА ДОКУМЕНТАЦІЯ
Технічна безпека Microsoft 365 Copilot
Цей розділ призначений для керівників, IT-адміністраторів та спеціалістів з інформаційної безпеки. Тут розглянуті архітектурні рішення, механізми захисту, інструменти моніторингу та конфігурації, необхідні для безпечного розгортання Microsoft 365 Copilot в організації.
Якщо ви шукаєте просту відповідь на питання "чи безпечний Copilot?" -- перейдіть до гіду для співробітників. Ця сторінка містить технічні деталі.
Zero Trust архітектура
Microsoft 365 Copilot побудований на принципах Zero Trust -- моделі безпеки, яка не довіряє жодному запиту за замовчуванням, навіть якщо він надходить з внутрішньої мережі.
Три принципи Zero Trust у контексті Copilot
Архітектура обробки запитів
Потік обробки запиту в Copilot:
- Користувач надсилає промпт через клієнт Microsoft 365 (Word, Teams тощо)
- Microsoft Entra ID аутентифікує користувача та перевіряє Conditional Access policies
- Microsoft 365 Copilot Orchestrator отримує запит та визначає необхідний контекст
- Microsoft Graph виконує пошук даних у тенанті з дотриманням прав доступу користувача (RBAC, ACL)
- Semantic Index знаходить релевантні фрагменти з проіндексованого контенту тенанта
- Azure OpenAI Service генерує відповідь на основі промпту та контексту (дані не зберігаються та не використовуються для тренування)
- Responsible AI фільтри перевіряють відповідь на шкідливий контент
- Відповідь повертається користувачу
Критичний момент: на кроці 4 Microsoft Graph повертає тільки ті дані, до яких користувач має доступ. Це означає, що oversharing (занадто широкі дозволи на файли та папки) -- головний ризик безпеки при розгортанні Copilot. Проведіть аудит прав доступу до впровадження.
Data Boundary та резидентність даних
Де обробляються дані
Microsoft 365 Copilot обробляє дані в тому ж географічному регіоні, де розташований ваш тенант Microsoft 365. Це визначається при створенні тенанта і відповідає Data Residency зобов'язанням Microsoft.
EU Data Boundary
Для тенантів у Європейському Союзі Microsoft забезпечує EU Data Boundary -- комплексне зобов'язання щодо обробки та зберігання даних виключно в межах ЄС:
- Запити до Copilot обробляються на серверах у ЄС
- Дані Microsoft Graph залишаються в ЄС
- Логи та діагностика зберігаються в ЄС
- Azure OpenAI inference виконується в ЄС
Транзит даних
Всі дані шифруються in transit (TLS 1.2+) та at rest (AES-256). Copilot використовує ті ж канали передачі даних, що й решта сервісів Microsoft 365 -- без додаткових зовнішніх з'єднань.
Сертифікації та compliance
Microsoft 365 Copilot успадковує compliance-статус платформи Microsoft 365 та Azure OpenAI Service:
Актуальні сертифікати та аудиторські звіти доступні для завантаження на Microsoft Service Trust Portal. Для доступу потрібен корпоративний обліковий запис Microsoft 365.
Microsoft Purview: DLP та Information Protection
Sensitivity Labels
Microsoft Purview Information Protection дозволяє класифікувати та захищати дані за допомогою sensitivity labels. Copilot повністю інтегрований з цією системою:
- Copilot дотримується sensitivity labels при доступі до даних через Microsoft Graph
- Відповіді Copilot успадковують найвищий рівень чутливості з використаних джерел
- Документи, створені Copilot, отримують sensitivity label автоматично (якщо налаштовано auto-labeling)
- Якщо label забороняє копіювання -- Copilot не зможе використати вміст документа
Рекомендована конфігурація labels для Copilot
Data Loss Prevention (DLP)
Microsoft Purview DLP дозволяє створити політики, що контролюють використання даних у Copilot:
- Політики DLP можуть блокувати відображення конфіденційного контенту у відповідях Copilot
- Типи чутливої інформації (credit card numbers, national ID тощо) автоматично виявляються та маскуються
- Custom sensitive information types дозволяють додати специфічні для організації шаблони
Налаштування DLP для Copilot:
- Перейдіть до Microsoft Purview Compliance Portal → Data Loss Prevention → Policies
- Створіть або змініть політику, додавши location "Microsoft 365 Copilot"
- Визначте правила на основі типів чутливої інформації або sensitivity labels
- Оберіть дію: block, warn, або audit only
- Протестуйте в режимі "Test" перед увімкненням у production
Рекомендація: почніть з режиму audit only (тільки логування без блокування) на 2-4 тижні, щоб зрозуміти обсяг та характер даних, що обробляються через Copilot, перш ніж застосовувати блокування.
Conditional Access та контроль доступу
Conditional Access Policies для Copilot
Microsoft Entra Conditional Access дозволяє контролювати, хто, звідки та на яких пристроях може використовувати Copilot:
Рекомендовані політики:
- Вимога MFA -- обов'язкова багатофакторна аутентифікація для доступу до Copilot
- Compliant devices only -- доступ тільки з пристроїв, що відповідають корпоративним вимогам (Intune)
- Blocked locations -- заборона доступу з певних географічних регіонів або IP-адрес
- Risk-based access -- обмеження доступу при підвищеному ризику (Identity Protection)
- Session controls -- обмеження тривалості сесії та умови повторної аутентифікації
Налаштування:
- Microsoft Entra admin center → Protection → Conditional Access → Policies
- Створіть нову політику або змініть існуючу
- У Cloud apps or actions оберіть Microsoft 365 Copilot або Office 365 (включає Copilot)
- Налаштуйте умови (Conditions) та контролі доступу (Grant/Session)
Copilot не є окремим cloud app у Conditional Access -- він працює в контексті застосунків Microsoft 365 (Word, Teams тощо). Політики, застосовані до Office 365, автоматично поширюються на Copilot.
Керування ліцензіями
Copilot доступний тільки користувачам з відповідною ліцензією. Використовуйте групи Microsoft Entra ID для керування призначенням ліцензій:
- Створіть групу безпеки "Copilot Users"
- Призначте ліцензію Microsoft 365 Copilot цій групі
- Додавайте користувачів поступово (поетапне розгортання)
- Використовуйте dynamic membership rules для автоматизації
Аудит та моніторинг
Microsoft Purview Audit
Copilot логує активність у Microsoft Purview Audit (Standard та Premium):
Логовані події:
CopilotInteraction-- кожен запит до Copilot (промпт, застосунок, час)CopilotSensitivityLabelApplied-- застосування sensitivity label до створених документівCopilotDataAccess-- звернення до даних через Microsoft Graph у контексті Copilot
Перегляд логів:
- Microsoft Purview Compliance Portal → Audit → Search
- Оберіть діапазон дат та фільтр Activities: Copilot activities
- Фільтруйте за користувачем, застосунком або типом події
Retention для логів Copilot
- Audit Standard: зберігання логів 180 днів
- Audit Premium (E5): зберігання до 1 року (налаштовується до 10 років)
Рекомендація для E5: увімкніть Audit Premium та налаштуйте retention policy мінімум на 1 рік для подій Copilot. Це необхідно для розслідування інцидентів та compliance-звітності.
Microsoft Defender for Cloud Apps
Якщо ваша організація використовує Microsoft Defender for Cloud Apps, ви можете:
- Створювати anomaly detection policies для незвичної активності Copilot
- Налаштувати alerts при підозрілих патернах використання
- Інтегрувати з SIEM (Microsoft Sentinel або стороннім) для централізованого моніторингу
Мережева безпека
Мережеві з'єднання Copilot
Copilot використовує ті ж мережеві ендпоінти, що й решта сервісів Microsoft 365. Окремих портів або URL-адрес для Copilot відкривати не потрібно.
Рекомендації для мережевої безпеки:
- Забезпечте доступ до Microsoft 365 endpoints згідно з категоріями Optimize, Allow, Default
- Використовуйте Microsoft 365 network connectivity test для перевірки якості з'єднання
- Не направляйте трафік Microsoft 365 через SSL inspection proxy -- це може порушити роботу Copilot та знизити продуктивність
- За наявності VPN використовуйте split tunneling для трафіку Microsoft 365
Захист від data exfiltration
- Copilot не створює нових каналів для виведення даних -- він працює через існуючі сервіси Microsoft 365
- DLP-політики Microsoft Purview контролюють обмін даними через усі канали, включаючи Copilot
- Sensitivity labels з шифруванням запобігають несанкціонованому доступу навіть у разі витоку
Responsible AI та контент-фільтри
Microsoft 365 Copilot включає вбудовані механізми Responsible AI:
- Content Safety filters -- блокування генерації шкідливого, дискримінаційного або незаконного контенту
- Grounding -- прив'язка відповідей до фактичних даних організації (зменшення галюцинацій)
- Citations -- посилання на джерела у відповідях Copilot для верифікації
- Meta-prompting -- системні інструкції, що обмежують поведінку моделі
- Abuse monitoring -- автоматичне виявлення та блокування зловживань
Microsoft публікує Responsible AI Impact Assessments та Transparency Notes для кожного AI-продукту, включаючи Microsoft 365 Copilot.
Чек-лист підготовки до розгортання Copilot
Перед увімкненням Microsoft 365 Copilot для користувачів виконайте:
Права доступу
- Проведіть аудит прав доступу до SharePoint sites та OneDrive
- Виявіть та виправіть oversharing (файли/папки з доступом "Everyone" або "All Users")
- Перевірте membership у Microsoft 365 Groups та Teams
- Впровадіть принцип least privilege для доступу до файлів
Класифікація даних
- Розгорніть Microsoft Purview sensitivity labels
- Налаштуйте auto-labeling policies для автоматичної класифікації
- Визначте DLP-політики для Copilot (починайте з audit mode)
- Класифікуйте найбільш критичні сховища даних (SharePoint, OneDrive)
Доступ та аутентифікація
- Налаштуйте Conditional Access policies для Copilot
- Увімкніть MFA для всіх користувачів Copilot
- Створіть групи безпеки для поетапного розгортання ліцензій
- Перевірте налаштування Intune для compliant devices
Моніторинг
- Увімкніть Microsoft Purview Audit для Copilot activities
- Налаштуйте retention policies для audit logs
- Створіть alerts для аномальної активності
- Інтегруйте з SIEM за наявності
Навчання
- Проведіть навчання для end-users (безпечне використання)
- Проведіть навчання для IT-адміністраторів (моніторинг та реагування)
- Підготуйте процедуру реагування на інциденти з Copilot
- Створіть канал зворотного зв'язку для повідомлення про проблеми
Корисні посилання
Офіційна документація Microsoft щодо приватності та захисту даних у Copilot
Налаштування sensitivity labels та auto-labeling
Повна документація з Conditional Access policies
Налаштування аудиту та моніторингу активності Copilot
Внутрішні правила класифікації даних та допустимого використання AI інструментів