AI Wiki

Інтеграція з IDE

Підключення локальних AI-моделей до IDE — Continue.dev, Cody, Cursor та OpenAI-compatible endpoints

local-modelsidecontinuecodycursorvscodejetbrains

📎ОФІЦІЙНА ДОКУМЕНТАЦІЯ

Огляд

Локальні моделі можна підключити до IDE для autocomplete, chat та code review. Основні варіанти інтеграції:

ІнструментIDEAutocompleteChatБезкоштовний
Continue.devVS Code, JetBrainsТакТакТак
CodyVS Code, JetBrainsТакТакЧастково
CursorCursor IDEТакТакЧастково
Copilot + localVS CodeНіНіНі
ℹ️Інформація

Continue.dev — найпопулярніший відкритий варіант для роботи з локальними моделями. Він підтримує Ollama та LM Studio з коробки.

Continue.dev

Встановлення

  1. Встановіть розширення Continue у VS Code або JetBrains
  2. Extensions → пошук "Continue" → Install

Конфігурація для Ollama

Файл: ~/.continue/config.json

json
{ "models": [ { "title": "Qwen 2.5 Coder (Chat)", "provider": "ollama", "model": "qwen2.5-coder:7b", "apiBase": "http://localhost:11434" }, { "title": "Llama 3.1 (General)", "provider": "ollama", "model": "llama3.1:8b", "apiBase": "http://localhost:11434" } ], "tabAutocompleteModel": { "title": "Autocomplete", "provider": "ollama", "model": "qwen2.5-coder:1.5b", "apiBase": "http://localhost:11434" }, "embeddingsProvider": { "provider": "ollama", "model": "nomic-embed-text", "apiBase": "http://localhost:11434" } }

Конфігурація для LM Studio

json
{ "models": [ { "title": "LM Studio Model", "provider": "lmstudio", "model": "qwen2.5-coder-7b-instruct", "apiBase": "http://localhost:1234/v1" } ], "tabAutocompleteModel": { "title": "LM Studio Autocomplete", "provider": "lmstudio", "model": "qwen2.5-coder-1.5b-instruct", "apiBase": "http://localhost:1234/v1" } }

Використання Continue.dev

Chat

  • Відкрийте панель Continue (Ctrl+L)
  • Оберіть модель у верхній панелі
  • Напишіть запит
Поясни, що робить ця функція та запропонуй покращення

Autocomplete

Tab-completions працюють автоматично під час набору коду. Для найкращої швидкості використовуйте маленьку модель (1.5B-3B).

Inline Edit

  • Виділіть код
  • Натисніть Ctrl+I
  • Опишіть зміни
Додай error handling та TypeScript типи

Оптимізація Continue.dev

json
{ "tabAutocompleteOptions": { "debounceDelay": 300, "maxPromptTokens": 1024, "multilineCompletions": "always", "useFileSuffix": true } }
💡Порада

Для autocomplete використовуйте маленьку модель (1.5B-3B) для швидкості, а для chat — більшу (7B-14B) для якості. Continue.dev підтримує різні моделі для різних задач.

Cody (Sourcegraph)

Встановлення

  1. VS Code Extensions → пошук "Cody" → Install
  2. JetBrains Marketplace → Cody → Install

Конфігурація для Ollama

Cody підтримує Ollama як провайдер для autocomplete та chat:

json
// VS Code settings.json { "cody.autocomplete.advanced.provider": "experimental-ollama", "cody.autocomplete.advanced.model": "qwen2.5-coder:7b", "cody.autocomplete.advanced.serverEndpoint": "http://localhost:11434" }

Cursor з локальними моделями

Cursor підтримує OpenAI-compatible API, тому можна підключити Ollama або LM Studio:

Налаштування

  1. Cursor Settings → Models
  2. Додайте OpenAI-compatible endpoint:
    • API Base: http://localhost:11434/v1 (Ollama) або http://localhost:1234/v1 (LM Studio)
    • API Key: будь-який рядок (наприклад, ollama)
    • Model: qwen2.5-coder:7b
⚠️Увага

Cursor з локальними моделями працює значно повільніше, ніж з хмарними. Для комфортного autocomplete потрібна модель на GPU.

OpenAI-Compatible Endpoints

Ollama та LM Studio надають OpenAI-сумісний API, що дозволяє підключити їх до будь-якого інструменту, що підтримує OpenAI:

Загальна схема

Ваш IDE / інструмент │ │ OpenAI API формат │ POST /v1/chat/completions │ ├──→ Ollama (localhost:11434) │ └──→ LM Studio (localhost:1234)

Конфігурація для будь-якого OpenAI-compatible клієнта

bash
# Ollama OPENAI_API_BASE=http://localhost:11434/v1 OPENAI_API_KEY=ollama # LM Studio OPENAI_API_BASE=http://localhost:1234/v1 OPENAI_API_KEY=lm-studio

Приклад з Python SDK

python
from openai import OpenAI # Підключення до Ollama client = OpenAI( base_url="http://localhost:11434/v1", api_key="ollama" ) # Або до LM Studio client = OpenAI( base_url="http://localhost:1234/v1", api_key="lm-studio" ) # Використання ідентичне OpenAI API response = client.chat.completions.create( model="qwen2.5-coder:7b", messages=[{"role": "user", "content": "Hello!"}], )

Рекомендована конфігурація

Для розробника з 16 ГБ RAM

Autocomplete: Qwen 2.5 Coder 1.5B (GPU) Chat: Qwen 2.5 Coder 7B (GPU/CPU mix) IDE: Continue.dev (VS Code) Backend: Ollama

Для розробника з 32+ ГБ RAM / GPU

Autocomplete: Qwen 2.5 Coder 7B (GPU) Chat: Qwen 2.5 Coder 32B (GPU) IDE: Continue.dev (VS Code) Backend: Ollama

Наступні кроки

Вибір моделі

Як обрати оптимальну модель

Приватність та безпека

Захист даних при локальному inference