LM Studio
GUI-додаток для запуску локальних AI-моделей — встановлення, інтерфейс, завантаження моделей та API-сервер
📎ОФІЦІЙНА ДОКУМЕНТАЦІЯ
Що таке LM Studio?
LM Studio — це десктоп-додаток з графічним інтерфейсом для завантаження, налаштування та запуску локальних AI-моделей. На відміну від Ollama (CLI), LM Studio пропонує зручний UI для пошуку моделей, чат-інтерфейс та вбудований API-сервер.
LM Studio безкоштовний для персонального використання. Підтримує macOS (Apple Silicon та Intel), Windows та Linux.
Встановлення
Завантаження
- Перейдіть на lmstudio.ai
- Завантажте інсталятор для вашої ОС
- Встановіть та запустіть
CLI (lms)
LM Studio також має CLI-інструмент:
# Встановити CLI
# (автоматично доступний після встановлення LM Studio)
# Перевірити
lms --version
# Запустити модель
lms load qwen2.5-coder-7b
# Запустити API-сервер
lms server start
Інтерфейс
Основні вкладки
┌────────────────────────────────────┐
│ [Home] [Search] [Chat] [Server] │
│ [My Models] [Developer] │
└────────────────────────────────────┘
| Вкладка | Призначення |
|---|---|
| Home | Головна сторінка з рекомендаціями |
| Search | Пошук та завантаження моделей з Hugging Face |
| Chat | Чат-інтерфейс для спілкування з моделлю |
| Server | Запуск OpenAI-сумісного API-сервера |
| My Models | Управління завантаженими моделями |
| Developer | Playground для тестування API |
Пошук та завантаження моделей
Через UI
- Перейдіть на вкладку Search
- Введіть назву моделі (наприклад, "qwen2.5-coder")
- Оберіть варіант квантизації (Q4_K_M рекомендовано)
- Натисніть Download
Через CLI
lms get qwen2.5-coder-7b-instruct
Рекомендовані моделі для початку
| Модель | Квантизація | Розмір | Для чого |
|---|---|---|---|
| Qwen 2.5 Coder 7B | Q4_K_M | ~4.5 ГБ | Кодування |
| Llama 3.1 8B | Q4_K_M | ~4.7 ГБ | Загальне використання |
| Phi-4 Mini | Q4_K_M | ~2.5 ГБ | Швидкі відповіді |
| Mistral 7B | Q4_K_M | ~4.1 ГБ | Баланс якості/швидкості |
Квантизація Q4_K_M — оптимальний баланс між якістю та розміром. Q5_K_M трохи кращий за якістю, але більший. Q3 та Q2 значно гірші за якістю.
Чат-інтерфейс
Використання
- Перейдіть на вкладку Chat
- Оберіть модель у верхній панелі
- Напишіть повідомлення та натисніть Enter
Налаштування чату
У правій панелі доступні параметри:
- System Prompt — системний промпт для моделі
- Temperature — креативність (0-1)
- Max Tokens — максимальна довжина відповіді
- Top P — nucleus sampling
- Context Length — розмір контекстного вікна
Приклад системного промпту
Ти — досвідчений senior розробник.
Відповідай українською мовою.
Завжди пиши чистий, типізований код з коментарями.
При написанні коду використовуй TypeScript.
API-сервер
Запуск сервера
- Перейдіть на вкладку Server
- Оберіть модель
- Натисніть Start Server
- Сервер доступний на
http://localhost:1234
Або через CLI
lms server start --port 1234
OpenAI-сумісний API
LM Studio надає API, сумісний з OpenAI SDK:
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:1234/v1",
api_key="lm-studio" # будь-який рядок
)
response = client.chat.completions.create(
model="qwen2.5-coder-7b-instruct",
messages=[
{"role": "system", "content": "Ти — TypeScript розробник"},
{"role": "user", "content": "Напиши функцію для глибокого клонування об'єкта"}
],
temperature=0.3,
)
print(response.choices[0].message.content)
import OpenAI from "openai";
const client = new OpenAI({
baseURL: "http://localhost:1234/v1",
apiKey: "lm-studio",
});
const response = await client.chat.completions.create({
model: "qwen2.5-coder-7b-instruct",
messages: [
{ role: "user", content: "Поясни патерн Observer простими словами" }
],
});
console.log(response.choices[0].message.content);
API-ключ "lm-studio" — це заглушка, не справжній ключ. LM Studio API не потребує автентифікації, але OpenAI SDK вимагає непорожній api_key.
Порівняння з Ollama
| Функція | LM Studio | Ollama |
|---|---|---|
| Інтерфейс | GUI + CLI | CLI only |
| Пошук моделей | Вбудований (Hugging Face) | ollama.com/library |
| API | OpenAI-compatible | Ollama + OpenAI-compatible |
| Docker | Ні | Так |
| Modelfile | Ні | Так |
| Кастомні моделі | Завантаження GGUF | Modelfile |
| Ресурси | Більше (GUI) | Менше (headless) |
| Платформи | macOS, Windows, Linux | macOS, Windows, Linux, Docker |
Наступні кроки
Як обрати оптимальну модель для ваших задач
Підключіть LM Studio до вашого IDE