A

AGI (Artificial General Intelligence)

Общий искусственный интеллект

Гипотетический уровень AI, который сможет выполнять любые интеллектуальные задачи на уровне человека. В отличие от узкого AI (ANI), который хорош в одной области, AGI будет универсален. По состоянию на 2026 год, AGI ещё не создан.

Продвинутый

API (Application Programming Interface)

Интерфейс программирования приложений

Способ взаимодействия программ между собой. AI-компании предоставляют API, через которые разработчики могут отправлять запросы к нейросетям и получать ответы. Именно так НейроЧат AI подключается к моделям Gemini, Claude и DeepSeek.

Базовый
C-D

Chain of Thought (CoT)

Цепочка рассуждений

Техника, при которой AI «думает вслух», пошагово излагая свои рассуждения перед финальным ответом. Это значительно повышает точность на сложных логических и математических задачах. Используется в режиме «Думающий» (DeepSeek v4) в НейроЧат AI.

Продвинутый

Контекстное окно (Context Window)

Context Window

Максимальный объём текста, который модель может «помнить» и обрабатывать за один запрос. Измеряется в токенах. Например, контекст 128K токенов ≈ 200 страниц текста, а 1M токенов ≈ ~1500 страниц. Чем больше контекст, тем больше информации можно передать модели за раз.

Базовый
E-F

Embedding (Эмбеддинг)

Векторное представление

Способ преобразования текста (или изображения, звука) в набор чисел — вектор. Это позволяет компьютеру «понимать» смысл: похожие по смыслу тексты получают близкие вектора. Используется в поисковых системах, рекомендациях и RAG-системах.

Экспертный

Fine-tuning (Дообучение)

Тонкая настройка модели

Процесс дополнительного обучения уже готовой AI-модели на специализированных данных. Например, общую модель GPT можно дообучить на медицинских текстах, чтобы она лучше отвечала на вопросы о здоровье. Требует значительных вычислительных ресурсов.

Экспертный
G-H

Галлюцинации (Hallucination)

AI Hallucination

Ситуация, когда AI уверенно генерирует ответ, который является неверным или полностью выдуманным. Модель не «врёт» намеренно — она предсказывает наиболее вероятный текст, который иногда не соответствует фактам. Поэтому важно проверять критичную информацию.

Базовый

GPT (Generative Pre-trained Transformer)

Генеративный предобученный трансформер

Семейство языковых моделей от OpenAI. GPT расшифровывается как «Генеративный Предобученный Трансформер» — модель, которая генерирует текст, предварительно обучена на огромном корпусе данных и основана на архитектуре Transformer. ChatGPT — это чат-интерфейс для моделей GPT.

Базовый
L-M

LLM (Large Language Model)

Большая языковая модель

Нейросеть с миллиардами параметров, обученная на огромных объёмах текстовых данных. Все современные AI-чатботы (ChatGPT, Claude, Gemini) — это LLM. «Большая» означает десятки-сотни миллиардов обучаемых параметров.

Базовый

Мультимодальность (Multimodal)

Multimodal AI

Способность AI работать с разными типами данных: текст, изображения, аудио, видео. Мультимодальная модель может, например, проанализировать фотографию и описать, что на ней изображено, или создать изображение по текстовому описанию.

Продвинутый
N-P

Нейросеть (Neural Network)

Искусственная нейронная сеть

Математическая модель, вдохновлённая строением человеческого мозга. Состоит из слоёв «нейронов» — узлов, которые обрабатывают информацию и передают её дальше. Обучается на данных, находя закономерности и паттерны. Основа всех современных AI-систем.

Базовый

Параметры (Parameters)

Model Parameters / Weights

Числовые значения внутри нейросети, которые настраиваются в процессе обучения. Чем больше параметров, тем «умнее» потенциально может быть модель. GPT-4 содержит ~1.8 триллиона параметров, DeepSeek v3 — 671 миллиард.

Продвинутый

Промпт (Prompt)

Запрос к AI

Текстовый запрос, который вы отправляете нейросети. Качество промпта напрямую влияет на качество ответа. Искусство составления эффективных промптов называется «промпт-инженерия» (prompt engineering). Подробнее — в нашем гайде по промптам.

Базовый
R-S

RAG (Retrieval-Augmented Generation)

Генерация с извлечением из базы знаний

Техника, при которой AI сначала ищет релевантную информацию в базе данных (документы, сайты), а затем генерирует ответ на основе найденного. Это снижает галлюцинации и позволяет работать с актуальными данными. Используется в корпоративных AI-решениях.

Экспертный

Reasoning (Рассуждения)

AI Reasoning / Thinking

Способность AI выстраивать логическую цепочку рассуждений перед ответом. «Думающие» модели (reasoning models) не просто генерируют текст, а пошагово анализируют задачу. DeepSeek v4 в НейроЧат AI использует именно этот подход для сложных задач.

Продвинутый

Streaming (Потоковая генерация)

Response Streaming

Технология, при которой ответ AI отображается по мере генерации, слово за словом, а не целиком после полной обработки. Это значительно улучшает UX — вы видите ответ мгновенно. НейроЧат AI использует streaming во всех режимах.

Базовый
T

Temperature (Температура)

Параметр креативности

Параметр, управляющий «креативностью» AI. При низкой температуре (0.0-0.3) модель даёт предсказуемые, точные ответы. При высокой (0.8-1.0) — более творческие и разнообразные, но менее точные. Для кода лучше низкая, для творчества — высокая температура.

Продвинутый

Токен (Token)

Token

Минимальная единица текста, с которой работает AI. Это может быть слово, часть слова или знак препинания. На английском ~1 токен ≈ 0.75 слова. На русском — обычно ~1 токен ≈ 0.5-0.6 слова (из-за более длинных слов). Модели имеют лимиты по токенам: например, «128K токенов» означает ~80-100 тысяч слов.

Базовый

Transformer

Архитектура Transformer

Архитектура нейросети, созданная Google в 2017 году (статья «Attention Is All You Need»). Позволяет модели «обращать внимание» на все части текста одновременно, а не только на последние слова. Стала основой для GPT, BERT, Claude, Gemini и практически всех современных LLM.

Экспертный

Термин не найден

Попробуйте другой запрос или прочитайте наш гайд по AI