AI Wiki

Локальні моделі

Запуск Ollama та LM Studio в air-gapped середовищах, верифікація моделей, model signing та приватні model registries

OllamaLM Studioair-gappedmodel-verificationlocal-LLMmodel-signing

📎ОФІЦІЙНА ДОКУМЕНТАЦІЯ

Локальні моделі в Zero Trust

Локальні LLM -- єдиний варіант AI-розробки в air-gapped середовищах та сценаріях з максимальними вимогами до конфіденційності. Дані ніколи не покидають вашу інфраструктуру.


Ollama в Air-Gapped середовищі

Підготовка моделей

В air-gapped середовищі Ollama не має доступу до інтернету для завантаження моделей. Підготуйте моделі заздалегідь:

bash
# На машині з інтернетом: # 1. Завантажте моделі ollama pull codellama:13b ollama pull deepseek-coder-v2:16b ollama pull qwen2.5-coder:14b # 2. Знайдіть файли моделей # Linux/macOS: ~/.ollama/models/ # Windows: %USERPROFILE%\.ollama\models\ # 3. Скопіюйте директорію models на зашифрований носій

Перенесення в air-gapped середовище

Offline Installation

bash
# Завантажте Ollama installer заздалегідь # Linux: curl -L https://ollama.com/download/ollama-linux-amd64 -o ollama # Перенесіть на air-gapped machine chmod +x ollama sudo mv ollama /usr/local/bin/ # Запуск ollama serve
⚠️Увага

Переконайтеся, що версія Ollama сумісна з форматом моделей. При оновленні Ollama може змінитися формат зберігання.


LM Studio в Air-Gapped середовищі

Підготовка

  1. Завантажте LM Studio installer на connected machine
  2. Завантажте потрібні моделі у форматі GGUF
  3. Перенесіть все на air-gapped machine

Рекомендовані моделі для кодування

МодельРозмірRAM потребаЯкість коду
DeepSeek Coder V2 16B~10 GB16 GB+Висока
Qwen 2.5 Coder 14B~9 GB14 GB+Висока
CodeLlama 13B~8 GB12 GB+Середня
Phi-3 Mini~2.4 GB6 GB+Базова
StarCoder2 7B~4.5 GB8 GB+Середня

Верифікація моделей

Перевірка цілісності

Перед використанням моделі в production обов'язково верифікуйте:

bash
# Перевірка SHA-256 checksum sha256sum model-file.gguf # Порівняйте з офіційним checksum від постачальника # Для Ollama моделей ollama show codellama:13b --modelfile

Model Supply Chain

РизикЗахист
Підмінена модельВерифікація checksum з довіреного джерела
Backdoor в моделіТестування на known triggers
Bias або toxicityТестування на safety benchmarks
Ліцензійні обмеженняПеревірка ліцензії моделі
Застаріла модельРегулярне оновлення з перевіркою
ℹ️Інформація

Завжди завантажуйте моделі з офіційних джерел: Hugging Face (з verified badge), Ollama Library, або безпосередньо від розробника моделі.


Model Signing

Підписання моделей

Для enterprise-сценаріїв підписуйте моделі перед розповсюдженням:

bash
# Підписання моделі GPG gpg --armor --detach-sign model.gguf # Верифікація перед використанням gpg --verify model.gguf.asc model.gguf

Процес верифікації

  1. Завантажте модель з довіреного джерела
  2. Перевірте checksum
  3. Підпишіть модель корпоративним ключем
  4. Додайте до внутрішнього реєстру
  5. При використанні -- верифікуйте підпис

Private Model Registries

Внутрішній реєстр моделей

Для організації з декількома командами створіть внутрішній model registry:

Інструменти

ІнструментТипОсобливості
MLflowModel RegistryOpen source, versioning, staging
DVCData/Model VersioningGit-based, lightweight
Hugging Face Hub (self-hosted)Model HubFull-featured, enterprise
MinIO + custom APIObject StorageSelf-hosted S3 для air-gapped

Приклад workflow

bash
# Додавання моделі до реєстру # 1. Верифікація sha256sum model.gguf > model.gguf.sha256 # 2. Підписання gpg --detach-sign model.gguf # 3. Завантаження до реєстру mlflow models register \ --model-uri ./model.gguf \ --name "codellama-13b" \ --tags "verified=true,signed=true" # 4. Перехід на staging mlflow models transition \ --name "codellama-13b" \ --stage "Staging"

Безпека локальних моделей

Hardware Requirements

КомпонентМінімумРекомендовано
RAM16 GB32-64 GB
GPU-NVIDIA RTX 3080+ (16 GB VRAM)
Storage50 GB SSD200+ GB NVMe
CPU8 cores16+ cores

Security Hardening

  1. Ізоляція -- запускайте моделі в окремому контейнері або VM
  2. Мережа -- обмежте мережевий доступ до API моделі (localhost only)
  3. Ресурси -- обмежте CPU/RAM щоб запобігти DoS
  4. Логування -- логуйте всі запити до моделі
  5. Оновлення -- регулярно оновлюйте Ollama/LM Studio (через air-gap процес)

Див. також

Локальні моделі (інструменти)

Ollama, LM Studio та вибір моделей

Мережеві обмеження

Air-gapped мережі та VPN

Передача коду

Безпечна передача артефактів