Безпека Microsoft 365 Copilot
Повний огляд захисту даних та конфіденційності у Microsoft 365 Copilot — для співробітників та керівників
📎ОФІЦІЙНА ДОКУМЕНТАЦІЯ
Безпека Microsoft 365 Copilot
Microsoft 365 Copilot -- це AI-помічник, вбудований у корпоративне середовище Microsoft 365. Одне з головних питань при впровадженні -- безпека та конфіденційність даних. Цей розділ пояснює, як саме Microsoft захищає ваші дані, і що це означає для вашої організації.
Цей розділ має два рівні: для співробітників (простою мовою, відповіді на головні питання) та для відділу безпеки (технічний аналіз з деталями конфігурації). Оберіть свій рівень нижче.
Два рівні документації
Простий та зрозумілий гід — відповіді на головні питання про безпеку Copilot
Детальний технічний аналіз: Zero Trust, Purview, Conditional Access, аудит
Ключовий принцип: ваші дані залишаються вашими
Microsoft чітко гарантує: дані вашої організації НЕ використовуються для навчання базових моделей AI (Large Language Models). Ваші документи, листи, чати та файли залишаються в межах вашого тенанта Microsoft 365.
Це фундаментальна відмінність Microsoft 365 Copilot від публічних AI-сервісів (ChatGPT Free, безкоштовний Gemini тощо). Copilot працює всередині вашого корпоративного середовища Microsoft 365, а не назовні.
Як Copilot обробляє дані
Потік даних
Коли ви надсилаєте запит до Copilot, відбувається наступне:
- Ваш запит надсилається до сервісу Microsoft 365 Copilot
- Grounding -- Copilot шукає релевантну інформацію у вашому тенанті Microsoft 365 (файли, листи, чати), використовуючи Microsoft Graph
- Перевірка прав доступу -- Microsoft Graph повертає тільки ті дані, до яких у вас є дозвіл згідно з існуючими правами доступу
- Генерація відповіді -- Large Language Model (Azure OpenAI) генерує відповідь на основі вашого запиту та знайденого контексту
- Відповідь повертається вам у застосунку Microsoft 365
Весь цей процес відбувається всередині безпекового периметру Microsoft 365. Дані не покидають інфраструктуру Microsoft і не передаються третім сторонам.
Дозволи та права доступу
Copilot повністю дотримується існуючої системи дозволів Microsoft 365:
- Якщо у вас немає доступу до файлу в SharePoint -- Copilot його не побачить
- Якщо документ захищений sensitivity label -- Copilot дотримується цих обмежень
- Якщо ви не маєте ліцензії на певний сервіс -- Copilot не зможе отримати звідти дані
Це означає, що правильне налаштування прав доступу у Microsoft 365 -- це перша лінія захисту при використанні Copilot.
Де зберігаються дані
Дані тенанта
Ваші файли, документи, листи та чати зберігаються там, де вони завжди зберігалися -- у вашому тенанті Microsoft 365 відповідно до обраної географії (Data Residency).
Запити та відповіді Copilot
- Промпти та відповіді тимчасово обробляються для генерації відповіді
- Історія чату Copilot зберігається у поштовій скриньці користувача та підпорядковується тим же політикам збереження (retention policies)
- Microsoft не зберігає ваші запити для навчання моделей
EU Data Boundary
Для організацій з тенантом у Європейському Союзі Microsoft забезпечує EU Data Boundary -- гарантію того, що дані обробляються та зберігаються виключно в межах ЄС.
Сертифікації та відповідність
Microsoft 365 Copilot успадковує всі сертифікації платформи Microsoft 365:
Повний перелік сертифікацій доступний на Microsoft Service Trust Portal -- там можна завантажити аудиторські звіти та сертифікати.
Що потрібно зробити вашій організації
Хоча Microsoft забезпечує безпеку на рівні платформи, ваша організація відповідає за:
- Перевірку прав доступу -- переконайтеся, що файли та папки мають коректні дозволи (oversharing -- головний ризик)
- Sensitivity labels -- класифікуйте конфіденційні документи за допомогою Microsoft Purview Information Protection
- DLP-політики -- налаштуйте Data Loss Prevention для запобігання витоку через Copilot
- Conditional Access -- обмежте доступ до Copilot за умовами (пристрій, мережа, ризик)
- Навчання співробітників -- проведіть навчання щодо безпечного використання AI
- Моніторинг -- увімкніть аудит активності Copilot через Microsoft Purview Audit
Oversharing -- ризик номер один. Якщо у вашій організації файли та папки мають занадто широкі дозволи (наприклад, "Everyone" або "All Users"), Copilot зможе знайти та використати ці дані у відповідях. Перегляньте права доступу до розгортання Copilot.
Наступні кроки
FAQ формат -- відповіді на головні питання про конфіденційність та безпеку
Zero Trust, Purview, Conditional Access, аудит, sensitivity labels
Правила класифікації даних та допустимого використання AI інструментів