AI Wiki

Безпека Microsoft 365 Copilot

Повний огляд захисту даних та конфіденційності у Microsoft 365 Copilot — для співробітників та керівників

copilotsecuritymicrosoft 365zero trustdata protection

Безпека Microsoft 365 Copilot

Microsoft 365 Copilot -- це AI-помічник, вбудований у корпоративне середовище Microsoft 365. Одне з головних питань при впровадженні -- безпека та конфіденційність даних. Цей розділ пояснює, як саме Microsoft захищає ваші дані, і що це означає для вашої організації.

💡Порада

Цей розділ має два рівні: для співробітників (простою мовою, відповіді на головні питання) та для відділу безпеки (технічний аналіз з деталями конфігурації). Оберіть свій рівень нижче.


Два рівні документації

Безпека для співробітників

Простий та зрозумілий гід — відповіді на головні питання про безпеку Copilot

Технічна безпека для керівників та ІБ

Детальний технічний аналіз: Zero Trust, Purview, Conditional Access, аудит


Ключовий принцип: ваші дані залишаються вашими

⚠️Увага

Microsoft чітко гарантує: дані вашої організації НЕ використовуються для навчання базових моделей AI (Large Language Models). Ваші документи, листи, чати та файли залишаються в межах вашого тенанта Microsoft 365.

Це фундаментальна відмінність Microsoft 365 Copilot від публічних AI-сервісів (ChatGPT Free, безкоштовний Gemini тощо). Copilot працює всередині вашого корпоративного середовища Microsoft 365, а не назовні.


Як Copilot обробляє дані

Потік даних

Коли ви надсилаєте запит до Copilot, відбувається наступне:

  1. Ваш запит надсилається до сервісу Microsoft 365 Copilot
  2. Grounding -- Copilot шукає релевантну інформацію у вашому тенанті Microsoft 365 (файли, листи, чати), використовуючи Microsoft Graph
  3. Перевірка прав доступу -- Microsoft Graph повертає тільки ті дані, до яких у вас є дозвіл згідно з існуючими правами доступу
  4. Генерація відповіді -- Large Language Model (Azure OpenAI) генерує відповідь на основі вашого запиту та знайденого контексту
  5. Відповідь повертається вам у застосунку Microsoft 365
ℹ️Інформація

Весь цей процес відбувається всередині безпекового периметру Microsoft 365. Дані не покидають інфраструктуру Microsoft і не передаються третім сторонам.

Дозволи та права доступу

Copilot повністю дотримується існуючої системи дозволів Microsoft 365:

  • Якщо у вас немає доступу до файлу в SharePoint -- Copilot його не побачить
  • Якщо документ захищений sensitivity label -- Copilot дотримується цих обмежень
  • Якщо ви не маєте ліцензії на певний сервіс -- Copilot не зможе отримати звідти дані

Це означає, що правильне налаштування прав доступу у Microsoft 365 -- це перша лінія захисту при використанні Copilot.


Де зберігаються дані

Дані тенанта

Ваші файли, документи, листи та чати зберігаються там, де вони завжди зберігалися -- у вашому тенанті Microsoft 365 відповідно до обраної географії (Data Residency).

Запити та відповіді Copilot

  • Промпти та відповіді тимчасово обробляються для генерації відповіді
  • Історія чату Copilot зберігається у поштовій скриньці користувача та підпорядковується тим же політикам збереження (retention policies)
  • Microsoft не зберігає ваші запити для навчання моделей

EU Data Boundary

Для організацій з тенантом у Європейському Союзі Microsoft забезпечує EU Data Boundary -- гарантію того, що дані обробляються та зберігаються виключно в межах ЄС.


Сертифікації та відповідність

Microsoft 365 Copilot успадковує всі сертифікації платформи Microsoft 365:

ℹ️Інформація

Повний перелік сертифікацій доступний на Microsoft Service Trust Portal -- там можна завантажити аудиторські звіти та сертифікати.


Що потрібно зробити вашій організації

Хоча Microsoft забезпечує безпеку на рівні платформи, ваша організація відповідає за:

  1. Перевірку прав доступу -- переконайтеся, що файли та папки мають коректні дозволи (oversharing -- головний ризик)
  2. Sensitivity labels -- класифікуйте конфіденційні документи за допомогою Microsoft Purview Information Protection
  3. DLP-політики -- налаштуйте Data Loss Prevention для запобігання витоку через Copilot
  4. Conditional Access -- обмежте доступ до Copilot за умовами (пристрій, мережа, ризик)
  5. Навчання співробітників -- проведіть навчання щодо безпечного використання AI
  6. Моніторинг -- увімкніть аудит активності Copilot через Microsoft Purview Audit
⚠️Увага

Oversharing -- ризик номер один. Якщо у вашій організації файли та папки мають занадто широкі дозволи (наприклад, "Everyone" або "All Users"), Copilot зможе знайти та використати ці дані у відповідях. Перегляньте права доступу до розгортання Copilot.


Наступні кроки

Для співробітників: простий гід з безпеки

FAQ формат -- відповіді на головні питання про конфіденційність та безпеку

Для відділу безпеки: технічний аналіз

Zero Trust, Purview, Conditional Access, аудит, sensitivity labels

Корпоративні стандарти безпеки AI

Правила класифікації даних та допустимого використання AI інструментів