AI Wiki

Глосарій AI

Повний глосарій термінів штучного інтелекту та AI-Driven Development — від базових концепцій до просунутих технік

глосарійтерміниосновиAIMLLLMNLP

📎ОФІЦІЙНА ДОКУМЕНТАЦІЯ

Глосарій AI

Цей глосарій охоплює ключові терміни та концепції у сфері штучного інтелекту та AI-Driven Development.


Загальні області та концепції

AI (Artificial Intelligence)

Штучний інтелект — широка галузь інформатики, що створює системи, здатні виконувати завдання, які потребують людського інтелекту: розпізнавання мови, прийняття рішень, переклад тощо.

ML (Machine Learning)

Машинне навчання — підгалузь AI, яка дозволяє системам автоматично навчатися та покращуватися на основі досвіду (даних) без явного програмування.

NLP (Natural Language Processing)

Обробка природної мови — напрямок у AI, що займається аналізом, розумінням та генерацією людської мови.

AGI (Artificial General Intelligence)

Загальний штучний інтелект — гіпотетичний тип AI, що має здатність розуміти, вивчати та застосовувати свій інтелект для розв'язання будь-якого завдання, з яким може впоратися людина.

Нейромережа (Neural Network)

Нейронна мережа — обчислювальна модель, натхненна структурою людського мозку, що складається з взаємопов'язаних вузлів ("нейронів"), організованих у шари.

Токен (Token)

Токен — мінімальна одиниця тексту, яку обробляє модель. Це може бути слово, частина слова або окремий символ. Один токен приблизно дорівнює 3-4 символам англійського тексту або 1-2 символам українського.

ℹ️Інформація

Кількість токенів безпосередньо впливає на вартість запитів до API та на обсяг інформації, що поміщається в контекстне вікно.

Self-Attention

Self-Attention — механізм, завдяки якому нейромережа обчислює важливість кожного токена для всіх інших слів у реченні.

Multi-Head Attention

Multi-Head Attention — модель обробляє текст одночасно через множину attention heads, що працюють паралельно, кожна з яких фокусується на різних аспектах вхідних даних.

Трансформер (Transformer)

Трансформер — архітектура нейронних мереж, що використовує механізм Attention для ефективної обробки послідовностей даних, таких як текст. Основа для більшості сучасних LLM.

Параметри (Parameters)

Параметри — внутрішні змінні нейромережі, що налаштовуються в процесі навчання. Саме в них "записані" всі знання моделі. Їх кількість визначає розмір та складність моделі.

LLM (Large Language Model)

Велика мовна модель — тип нейромережі, навченої на величезних обсягах текстових даних для розуміння, генерації та обробки людської мови.

ℹ️Інформація

Найпопулярніші LLM: GPT-4o, Claude 4 (Opus / Sonnet), Gemini 2.5 Pro, Llama 4, DeepSeek.

GPT (Generative Pre-trained Transformer)

Генеративний попередньо навчений трансформер — сімейство LLM на архітектурі Transformer від компанії OpenAI.


Процес навчання

Датасет (Dataset)

Датасет — структурований набір даних (текстів, зображень тощо), що використовується для навчання, тестування та оцінки моделей машинного навчання.

Навчання (Training)

Навчання — загальний процес, під час якого модель аналізує великі обсяги даних для виявлення закономірностей та "набуття" знань.

Попереднє навчання (Pre-training)

Попереднє навчання — початковий, найбільш ресурсозатратний етап навчання моделі на величезному, неструктурованому наборі даних (наприклад, на значній частині інтернету), під час якого вона набуває загальних мовних знань.

Дообучення (Fine-tuning)

Дообучення — процес додаткового навчання попередньо навченої моделі на вужчому, спеціалізованому наборі даних для адаптації до конкретного завдання або стилю.

LoRA (Low-Rank Adaptation)

LoRA — метод, який не змінює вихідні ваги попередньо навченої моделі, а додає до них невелику "коригувальну" матрицю. Це дозволяє ефективно адаптувати модель без повного перенавчання.

💡Порада

LoRA значно зменшує обсяг обчислень та пам'яті, необхідних для дообучення, що робить його доступним навіть на споживчому обладнанні.


Процес використання

Ембеддінги (Embeddings)

Ембеддінги — числові представлення (вектори) слів, речень або інших даних, що дозволяють моделям уловлювати їх семантичне значення та взаємозв'язки. Схожі за змістом елементи мають близькі вектори.

Промпт (Prompt)

Промпт — вхідні дані (інструкція, запитання, текст), які подаються LLM для отримання відповіді.

Інференс (Inference)

Інференс — процес використання навченої моделі для генерації відповіді на новий промпт. Саме на цьому етапі відбувається "робота" моделі для кінцевого користувача.

Контекст (Context)

Контекст — вся інформація, надана моделі в рамках одного запиту, включаючи історію діалогу, інструкції та приклади. "Короткочасна пам'ять" моделі.

Контекстне вікно (Context Window)

Контекстне вікно — максимальна кількість токенів, яку модель може обробляти одночасно (включаючи вхідний промпт та згенеровану відповідь). Все, що виходить за його межі, модель "забуває".

МодельКонтекстне вікно
Claude 4 (Opus / Sonnet)200K токенів (1M з Extended Thinking)
GPT-4o128K токенів
Gemini 2.5 Pro1M токенів

Температура (Temperature)

Температура — параметр, що контролює ступінь випадковості відповідей моделі. Низька температура робить відповіді більш передбачуваними та стандартними, висока — більш креативними та різноманітними. Оптимально від 0 до 1.2.

Top-K

Top-K — метод семплювання, який обмежує вибір наступного токена лише K найбільш ймовірними варіантами.

Top-P

Top-P — метод семплювання, де вибір обмежується "ядром" токенів, чия сумарна ймовірність не менша за P (наприклад, P=0.9).

Reasoning (Рассуждение)

Reasoning — процес, при якому модель покроково розбирає завдання для знаходження рішення. Використовується у Reasoning Models (o1, o3, Claude з Extended Thinking).

Галюцинація (Hallucination)

Галюцинація — відповідь моделі, яка виглядає правдоподібно, але є фактично невірною або вигаданою.

⚠️Увага

Завжди перевіряйте критично важливі факти, згенеровані LLM. Галюцинації — це не баг, а фундаментальна властивість ймовірнісних моделей.

Модальність (Modality)

Модальність — тип або форма даних, з якими працює модель (наприклад, текст, зображення, звук).

Мультимодальність (Multimodality)

Мультимодальність — здатність моделі одночасно розуміти та обробляти дані з кількох модальностей (наприклад, розуміти текст та зображення в одному запиті).


Застосування та ролі

Асистент (Assistant)

Асистент — прикладна реалізація LLM, часто із заданою роллю, призначена для допомоги користувачу у виконанні завдань у діалоговому режимі.

Агент (Agent)

Агент — автономна система, що використовує LLM для прийняття рішень та виконання дій за допомогою зовнішніх інструментів (API, код, MCP) для досягнення поставленої мети.

💡Порада

Агент працює в циклі: Observe (спостереження) → Reason (міркування) → Action (дія). Це дозволяє йому виконувати складні багатокрокові завдання автономно.

Вайб-кодинг (Vibe Coding)

Вайб-кодинг — неформальний термін, що описує процес написання коду за допомогою LLM, коли розробник задає бажану функціональність природною мовою ("вайб"), а модель генерує код.

Фонові агенти (Background Agents)

Фонові агенти — асинхронні AI-агенти, які постійно активні та виконують завдання у фоновому режимі без безпосереднього нагляду користувача.

Хмарні агенти (Cloud Agents)

Хмарні агенти — фонові AI-агенти, що працюють на віддаленій інфраструктурі та мають власне середовище виконання.

BYOK (Bring Your Own Key)

BYOK — можливість використовувати свій особистий API-ключ від постачальника AI-послуг замість того, щоб платити за доступ через розробника інструменту.

SOTA (State-of-the-Art)

SOTA — найкращий досягнутий рівень продуктивності алгоритмів або моделей для конкретного завдання на даний момент часу.


Див. також

Робота з LLM

Принципи роботи великих мовних моделей, генерація відповідей та оптимізація витрат

Промптинг

Техніки написання ефективних промптів: від Zero-shot до Meta-prompting

Інструменти

Огляд AI-чатів, IDE, CLI та інших інструментів для розробки