AI Wiki

LM Studio

GUI-додаток для запуску локальних AI-моделей — встановлення, інтерфейс, завантаження моделей та API-сервер

lm-studiolocal-modelsguiapiinference

📎ОФІЦІЙНА ДОКУМЕНТАЦІЯ

Що таке LM Studio?

LM Studio — це десктоп-додаток з графічним інтерфейсом для завантаження, налаштування та запуску локальних AI-моделей. На відміну від Ollama (CLI), LM Studio пропонує зручний UI для пошуку моделей, чат-інтерфейс та вбудований API-сервер.

ℹ️Інформація

LM Studio безкоштовний для персонального використання. Підтримує macOS (Apple Silicon та Intel), Windows та Linux.

Встановлення

Завантаження

  1. Перейдіть на lmstudio.ai
  2. Завантажте інсталятор для вашої ОС
  3. Встановіть та запустіть

CLI (lms)

LM Studio також має CLI-інструмент:

bash
# Встановити CLI # (автоматично доступний після встановлення LM Studio) # Перевірити lms --version # Запустити модель lms load qwen2.5-coder-7b # Запустити API-сервер lms server start

Інтерфейс

Основні вкладки

┌────────────────────────────────────┐ │ [Home] [Search] [Chat] [Server] │ │ [My Models] [Developer] │ └────────────────────────────────────┘
ВкладкаПризначення
HomeГоловна сторінка з рекомендаціями
SearchПошук та завантаження моделей з Hugging Face
ChatЧат-інтерфейс для спілкування з моделлю
ServerЗапуск OpenAI-сумісного API-сервера
My ModelsУправління завантаженими моделями
DeveloperPlayground для тестування API

Пошук та завантаження моделей

Через UI

  1. Перейдіть на вкладку Search
  2. Введіть назву моделі (наприклад, "qwen2.5-coder")
  3. Оберіть варіант квантизації (Q4_K_M рекомендовано)
  4. Натисніть Download

Через CLI

bash
lms get qwen2.5-coder-7b-instruct

Рекомендовані моделі для початку

МодельКвантизаціяРозмірДля чого
Qwen 2.5 Coder 7BQ4_K_M~4.5 ГБКодування
Llama 3.1 8BQ4_K_M~4.7 ГБЗагальне використання
Phi-4 MiniQ4_K_M~2.5 ГБШвидкі відповіді
Mistral 7BQ4_K_M~4.1 ГББаланс якості/швидкості
💡Порада

Квантизація Q4_K_M — оптимальний баланс між якістю та розміром. Q5_K_M трохи кращий за якістю, але більший. Q3 та Q2 значно гірші за якістю.

Чат-інтерфейс

Використання

  1. Перейдіть на вкладку Chat
  2. Оберіть модель у верхній панелі
  3. Напишіть повідомлення та натисніть Enter

Налаштування чату

У правій панелі доступні параметри:

  • System Prompt — системний промпт для моделі
  • Temperature — креативність (0-1)
  • Max Tokens — максимальна довжина відповіді
  • Top P — nucleus sampling
  • Context Length — розмір контекстного вікна

Приклад системного промпту

Ти — досвідчений senior розробник. Відповідай українською мовою. Завжди пиши чистий, типізований код з коментарями. При написанні коду використовуй TypeScript.

API-сервер

Запуск сервера

  1. Перейдіть на вкладку Server
  2. Оберіть модель
  3. Натисніть Start Server
  4. Сервер доступний на http://localhost:1234

Або через CLI

bash
lms server start --port 1234

OpenAI-сумісний API

LM Studio надає API, сумісний з OpenAI SDK:

python
from openai import OpenAI client = OpenAI( base_url="http://localhost:1234/v1", api_key="lm-studio" # будь-який рядок ) response = client.chat.completions.create( model="qwen2.5-coder-7b-instruct", messages=[ {"role": "system", "content": "Ти — TypeScript розробник"}, {"role": "user", "content": "Напиши функцію для глибокого клонування об'єкта"} ], temperature=0.3, ) print(response.choices[0].message.content)
typescript
import OpenAI from "openai"; const client = new OpenAI({ baseURL: "http://localhost:1234/v1", apiKey: "lm-studio", }); const response = await client.chat.completions.create({ model: "qwen2.5-coder-7b-instruct", messages: [ { role: "user", content: "Поясни патерн Observer простими словами" } ], }); console.log(response.choices[0].message.content);
⚠️Увага

API-ключ "lm-studio" — це заглушка, не справжній ключ. LM Studio API не потребує автентифікації, але OpenAI SDK вимагає непорожній api_key.

Порівняння з Ollama

ФункціяLM StudioOllama
ІнтерфейсGUI + CLICLI only
Пошук моделейВбудований (Hugging Face)ollama.com/library
APIOpenAI-compatibleOllama + OpenAI-compatible
DockerНіТак
ModelfileНіТак
Кастомні моделіЗавантаження GGUFModelfile
РесурсиБільше (GUI)Менше (headless)
ПлатформиmacOS, Windows, LinuxmacOS, Windows, Linux, Docker

Наступні кроки

Вибір моделі

Як обрати оптимальну модель для ваших задач

Інтеграція з IDE

Підключіть LM Studio до вашого IDE