Глосарій AI
Повний глосарій термінів штучного інтелекту та AI-Driven Development — від базових концепцій до просунутих технік
📎ОФІЦІЙНА ДОКУМЕНТАЦІЯ
Глосарій AI
Цей глосарій охоплює ключові терміни та концепції у сфері штучного інтелекту та AI-Driven Development.
Загальні області та концепції
AI (Artificial Intelligence)
Штучний інтелект — широка галузь інформатики, що створює системи, здатні виконувати завдання, які потребують людського інтелекту: розпізнавання мови, прийняття рішень, переклад тощо.
ML (Machine Learning)
Машинне навчання — підгалузь AI, яка дозволяє системам автоматично навчатися та покращуватися на основі досвіду (даних) без явного програмування.
NLP (Natural Language Processing)
Обробка природної мови — напрямок у AI, що займається аналізом, розумінням та генерацією людської мови.
AGI (Artificial General Intelligence)
Загальний штучний інтелект — гіпотетичний тип AI, що має здатність розуміти, вивчати та застосовувати свій інтелект для розв'язання будь-якого завдання, з яким може впоратися людина.
Нейромережа (Neural Network)
Нейронна мережа — обчислювальна модель, натхненна структурою людського мозку, що складається з взаємопов'язаних вузлів ("нейронів"), організованих у шари.
Токен (Token)
Токен — мінімальна одиниця тексту, яку обробляє модель. Це може бути слово, частина слова або окремий символ. Один токен приблизно дорівнює 3-4 символам англійського тексту або 1-2 символам українського.
Кількість токенів безпосередньо впливає на вартість запитів до API та на обсяг інформації, що поміщається в контекстне вікно.
Self-Attention
Self-Attention — механізм, завдяки якому нейромережа обчислює важливість кожного токена для всіх інших слів у реченні.
Multi-Head Attention
Multi-Head Attention — модель обробляє текст одночасно через множину attention heads, що працюють паралельно, кожна з яких фокусується на різних аспектах вхідних даних.
Трансформер (Transformer)
Трансформер — архітектура нейронних мереж, що використовує механізм Attention для ефективної обробки послідовностей даних, таких як текст. Основа для більшості сучасних LLM.
Параметри (Parameters)
Параметри — внутрішні змінні нейромережі, що налаштовуються в процесі навчання. Саме в них "записані" всі знання моделі. Їх кількість визначає розмір та складність моделі.
LLM (Large Language Model)
Велика мовна модель — тип нейромережі, навченої на величезних обсягах текстових даних для розуміння, генерації та обробки людської мови.
Найпопулярніші LLM: GPT-4o, Claude 4 (Opus / Sonnet), Gemini 2.5 Pro, Llama 4, DeepSeek.
GPT (Generative Pre-trained Transformer)
Генеративний попередньо навчений трансформер — сімейство LLM на архітектурі Transformer від компанії OpenAI.
Процес навчання
Датасет (Dataset)
Датасет — структурований набір даних (текстів, зображень тощо), що використовується для навчання, тестування та оцінки моделей машинного навчання.
Навчання (Training)
Навчання — загальний процес, під час якого модель аналізує великі обсяги даних для виявлення закономірностей та "набуття" знань.
Попереднє навчання (Pre-training)
Попереднє навчання — початковий, найбільш ресурсозатратний етап навчання моделі на величезному, неструктурованому наборі даних (наприклад, на значній частині інтернету), під час якого вона набуває загальних мовних знань.
Дообучення (Fine-tuning)
Дообучення — процес додаткового навчання попередньо навченої моделі на вужчому, спеціалізованому наборі даних для адаптації до конкретного завдання або стилю.
LoRA (Low-Rank Adaptation)
LoRA — метод, який не змінює вихідні ваги попередньо навченої моделі, а додає до них невелику "коригувальну" матрицю. Це дозволяє ефективно адаптувати модель без повного перенавчання.
LoRA значно зменшує обсяг обчислень та пам'яті, необхідних для дообучення, що робить його доступним навіть на споживчому обладнанні.
Процес використання
Ембеддінги (Embeddings)
Ембеддінги — числові представлення (вектори) слів, речень або інших даних, що дозволяють моделям уловлювати їх семантичне значення та взаємозв'язки. Схожі за змістом елементи мають близькі вектори.
Промпт (Prompt)
Промпт — вхідні дані (інструкція, запитання, текст), які подаються LLM для отримання відповіді.
Інференс (Inference)
Інференс — процес використання навченої моделі для генерації відповіді на новий промпт. Саме на цьому етапі відбувається "робота" моделі для кінцевого користувача.
Контекст (Context)
Контекст — вся інформація, надана моделі в рамках одного запиту, включаючи історію діалогу, інструкції та приклади. "Короткочасна пам'ять" моделі.
Контекстне вікно (Context Window)
Контекстне вікно — максимальна кількість токенів, яку модель може обробляти одночасно (включаючи вхідний промпт та згенеровану відповідь). Все, що виходить за його межі, модель "забуває".
| Модель | Контекстне вікно |
|---|---|
| Claude 4 (Opus / Sonnet) | 200K токенів (1M з Extended Thinking) |
| GPT-4o | 128K токенів |
| Gemini 2.5 Pro | 1M токенів |
Температура (Temperature)
Температура — параметр, що контролює ступінь випадковості відповідей моделі. Низька температура робить відповіді більш передбачуваними та стандартними, висока — більш креативними та різноманітними. Оптимально від 0 до 1.2.
Top-K
Top-K — метод семплювання, який обмежує вибір наступного токена лише K найбільш ймовірними варіантами.
Top-P
Top-P — метод семплювання, де вибір обмежується "ядром" токенів, чия сумарна ймовірність не менша за P (наприклад, P=0.9).
Reasoning (Рассуждение)
Reasoning — процес, при якому модель покроково розбирає завдання для знаходження рішення. Використовується у Reasoning Models (o1, o3, Claude з Extended Thinking).
Галюцинація (Hallucination)
Галюцинація — відповідь моделі, яка виглядає правдоподібно, але є фактично невірною або вигаданою.
Завжди перевіряйте критично важливі факти, згенеровані LLM. Галюцинації — це не баг, а фундаментальна властивість ймовірнісних моделей.
Модальність (Modality)
Модальність — тип або форма даних, з якими працює модель (наприклад, текст, зображення, звук).
Мультимодальність (Multimodality)
Мультимодальність — здатність моделі одночасно розуміти та обробляти дані з кількох модальностей (наприклад, розуміти текст та зображення в одному запиті).
Застосування та ролі
Асистент (Assistant)
Асистент — прикладна реалізація LLM, часто із заданою роллю, призначена для допомоги користувачу у виконанні завдань у діалоговому режимі.
Агент (Agent)
Агент — автономна система, що використовує LLM для прийняття рішень та виконання дій за допомогою зовнішніх інструментів (API, код, MCP) для досягнення поставленої мети.
Агент працює в циклі: Observe (спостереження) → Reason (міркування) → Action (дія). Це дозволяє йому виконувати складні багатокрокові завдання автономно.
Вайб-кодинг (Vibe Coding)
Вайб-кодинг — неформальний термін, що описує процес написання коду за допомогою LLM, коли розробник задає бажану функціональність природною мовою ("вайб"), а модель генерує код.
Фонові агенти (Background Agents)
Фонові агенти — асинхронні AI-агенти, які постійно активні та виконують завдання у фоновому режимі без безпосереднього нагляду користувача.
Хмарні агенти (Cloud Agents)
Хмарні агенти — фонові AI-агенти, що працюють на віддаленій інфраструктурі та мають власне середовище виконання.
BYOK (Bring Your Own Key)
BYOK — можливість використовувати свій особистий API-ключ від постачальника AI-послуг замість того, щоб платити за доступ через розробника інструменту.
SOTA (State-of-the-Art)
SOTA — найкращий досягнутий рівень продуктивності алгоритмів або моделей для конкретного завдання на даний момент часу.
Див. також
Принципи роботи великих мовних моделей, генерація відповідей та оптимізація витрат
Техніки написання ефективних промптів: від Zero-shot до Meta-prompting
Огляд AI-чатів, IDE, CLI та інших інструментів для розробки