Інтеграція з IDE
Підключення локальних AI-моделей до IDE — Continue.dev, Cody, Cursor та OpenAI-compatible endpoints
📎ОФІЦІЙНА ДОКУМЕНТАЦІЯ
Огляд
Локальні моделі можна підключити до IDE для autocomplete, chat та code review. Основні варіанти інтеграції:
| Інструмент | IDE | Autocomplete | Chat | Безкоштовний |
|---|---|---|---|---|
| Continue.dev | VS Code, JetBrains | Так | Так | Так |
| Cody | VS Code, JetBrains | Так | Так | Частково |
| Cursor | Cursor IDE | Так | Так | Частково |
| Copilot + local | VS Code | Ні | Ні | Ні |
Continue.dev — найпопулярніший відкритий варіант для роботи з локальними моделями. Він підтримує Ollama та LM Studio з коробки.
Continue.dev
Встановлення
- Встановіть розширення Continue у VS Code або JetBrains
- Extensions → пошук "Continue" → Install
Конфігурація для Ollama
Файл: ~/.continue/config.json
{
"models": [
{
"title": "Qwen 2.5 Coder (Chat)",
"provider": "ollama",
"model": "qwen2.5-coder:7b",
"apiBase": "http://localhost:11434"
},
{
"title": "Llama 3.1 (General)",
"provider": "ollama",
"model": "llama3.1:8b",
"apiBase": "http://localhost:11434"
}
],
"tabAutocompleteModel": {
"title": "Autocomplete",
"provider": "ollama",
"model": "qwen2.5-coder:1.5b",
"apiBase": "http://localhost:11434"
},
"embeddingsProvider": {
"provider": "ollama",
"model": "nomic-embed-text",
"apiBase": "http://localhost:11434"
}
}
Конфігурація для LM Studio
{
"models": [
{
"title": "LM Studio Model",
"provider": "lmstudio",
"model": "qwen2.5-coder-7b-instruct",
"apiBase": "http://localhost:1234/v1"
}
],
"tabAutocompleteModel": {
"title": "LM Studio Autocomplete",
"provider": "lmstudio",
"model": "qwen2.5-coder-1.5b-instruct",
"apiBase": "http://localhost:1234/v1"
}
}
Використання Continue.dev
Chat
- Відкрийте панель Continue (
Ctrl+L) - Оберіть модель у верхній панелі
- Напишіть запит
Поясни, що робить ця функція та запропонуй покращення
Autocomplete
Tab-completions працюють автоматично під час набору коду. Для найкращої швидкості використовуйте маленьку модель (1.5B-3B).
Inline Edit
- Виділіть код
- Натисніть
Ctrl+I - Опишіть зміни
Додай error handling та TypeScript типи
Оптимізація Continue.dev
{
"tabAutocompleteOptions": {
"debounceDelay": 300,
"maxPromptTokens": 1024,
"multilineCompletions": "always",
"useFileSuffix": true
}
}
Для autocomplete використовуйте маленьку модель (1.5B-3B) для швидкості, а для chat — більшу (7B-14B) для якості. Continue.dev підтримує різні моделі для різних задач.
Cody (Sourcegraph)
Встановлення
- VS Code Extensions → пошук "Cody" → Install
- JetBrains Marketplace → Cody → Install
Конфігурація для Ollama
Cody підтримує Ollama як провайдер для autocomplete та chat:
// VS Code settings.json
{
"cody.autocomplete.advanced.provider": "experimental-ollama",
"cody.autocomplete.advanced.model": "qwen2.5-coder:7b",
"cody.autocomplete.advanced.serverEndpoint": "http://localhost:11434"
}
Cursor з локальними моделями
Cursor підтримує OpenAI-compatible API, тому можна підключити Ollama або LM Studio:
Налаштування
- Cursor Settings → Models
- Додайте OpenAI-compatible endpoint:
- API Base:
http://localhost:11434/v1(Ollama) абоhttp://localhost:1234/v1(LM Studio) - API Key: будь-який рядок (наприклад,
ollama) - Model:
qwen2.5-coder:7b
- API Base:
Cursor з локальними моделями працює значно повільніше, ніж з хмарними. Для комфортного autocomplete потрібна модель на GPU.
OpenAI-Compatible Endpoints
Ollama та LM Studio надають OpenAI-сумісний API, що дозволяє підключити їх до будь-якого інструменту, що підтримує OpenAI:
Загальна схема
Ваш IDE / інструмент
│
│ OpenAI API формат
│ POST /v1/chat/completions
│
├──→ Ollama (localhost:11434)
│
└──→ LM Studio (localhost:1234)
Конфігурація для будь-якого OpenAI-compatible клієнта
# Ollama
OPENAI_API_BASE=http://localhost:11434/v1
OPENAI_API_KEY=ollama
# LM Studio
OPENAI_API_BASE=http://localhost:1234/v1
OPENAI_API_KEY=lm-studio
Приклад з Python SDK
from openai import OpenAI
# Підключення до Ollama
client = OpenAI(
base_url="http://localhost:11434/v1",
api_key="ollama"
)
# Або до LM Studio
client = OpenAI(
base_url="http://localhost:1234/v1",
api_key="lm-studio"
)
# Використання ідентичне OpenAI API
response = client.chat.completions.create(
model="qwen2.5-coder:7b",
messages=[{"role": "user", "content": "Hello!"}],
)
Рекомендована конфігурація
Для розробника з 16 ГБ RAM
Autocomplete: Qwen 2.5 Coder 1.5B (GPU)
Chat: Qwen 2.5 Coder 7B (GPU/CPU mix)
IDE: Continue.dev (VS Code)
Backend: Ollama
Для розробника з 32+ ГБ RAM / GPU
Autocomplete: Qwen 2.5 Coder 7B (GPU)
Chat: Qwen 2.5 Coder 32B (GPU)
IDE: Continue.dev (VS Code)
Backend: Ollama
Наступні кроки
Як обрати оптимальну модель
Захист даних при локальному inference