Словарь терминов искусственного интеллекта — от простого к сложному
Гипотетический уровень AI, который сможет выполнять любые интеллектуальные задачи на уровне человека. В отличие от узкого AI (ANI), который хорош в одной области, AGI будет универсален. По состоянию на 2026 год, AGI ещё не создан.
Способ взаимодействия программ между собой. AI-компании предоставляют API, через которые разработчики могут отправлять запросы к нейросетям и получать ответы. Именно так НейроЧат AI подключается к моделям Gemini, Claude и DeepSeek.
Техника, при которой AI «думает вслух», пошагово излагая свои рассуждения перед финальным ответом. Это значительно повышает точность на сложных логических и математических задачах. Используется в режиме «Думающий» (DeepSeek v4) в НейроЧат AI.
Максимальный объём текста, который модель может «помнить» и обрабатывать за один запрос. Измеряется в токенах. Например, контекст 128K токенов ≈ 200 страниц текста, а 1M токенов ≈ ~1500 страниц. Чем больше контекст, тем больше информации можно передать модели за раз.
Способ преобразования текста (или изображения, звука) в набор чисел — вектор. Это позволяет компьютеру «понимать» смысл: похожие по смыслу тексты получают близкие вектора. Используется в поисковых системах, рекомендациях и RAG-системах.
Процесс дополнительного обучения уже готовой AI-модели на специализированных данных. Например, общую модель GPT можно дообучить на медицинских текстах, чтобы она лучше отвечала на вопросы о здоровье. Требует значительных вычислительных ресурсов.
Ситуация, когда AI уверенно генерирует ответ, который является неверным или полностью выдуманным. Модель не «врёт» намеренно — она предсказывает наиболее вероятный текст, который иногда не соответствует фактам. Поэтому важно проверять критичную информацию.
Семейство языковых моделей от OpenAI. GPT расшифровывается как «Генеративный Предобученный Трансформер» — модель, которая генерирует текст, предварительно обучена на огромном корпусе данных и основана на архитектуре Transformer. ChatGPT — это чат-интерфейс для моделей GPT.
Нейросеть с миллиардами параметров, обученная на огромных объёмах текстовых данных. Все современные AI-чатботы (ChatGPT, Claude, Gemini) — это LLM. «Большая» означает десятки-сотни миллиардов обучаемых параметров.
Способность AI работать с разными типами данных: текст, изображения, аудио, видео. Мультимодальная модель может, например, проанализировать фотографию и описать, что на ней изображено, или создать изображение по текстовому описанию.
Математическая модель, вдохновлённая строением человеческого мозга. Состоит из слоёв «нейронов» — узлов, которые обрабатывают информацию и передают её дальше. Обучается на данных, находя закономерности и паттерны. Основа всех современных AI-систем.
Числовые значения внутри нейросети, которые настраиваются в процессе обучения. Чем больше параметров, тем «умнее» потенциально может быть модель. GPT-4 содержит ~1.8 триллиона параметров, DeepSeek v3 — 671 миллиард.
Текстовый запрос, который вы отправляете нейросети. Качество промпта напрямую влияет на качество ответа. Искусство составления эффективных промптов называется «промпт-инженерия» (prompt engineering). Подробнее — в нашем гайде по промптам.
Техника, при которой AI сначала ищет релевантную информацию в базе данных (документы, сайты), а затем генерирует ответ на основе найденного. Это снижает галлюцинации и позволяет работать с актуальными данными. Используется в корпоративных AI-решениях.
Способность AI выстраивать логическую цепочку рассуждений перед ответом. «Думающие» модели (reasoning models) не просто генерируют текст, а пошагово анализируют задачу. DeepSeek v4 в НейроЧат AI использует именно этот подход для сложных задач.
Технология, при которой ответ AI отображается по мере генерации, слово за словом, а не целиком после полной обработки. Это значительно улучшает UX — вы видите ответ мгновенно. НейроЧат AI использует streaming во всех режимах.
Параметр, управляющий «креативностью» AI. При низкой температуре (0.0-0.3) модель даёт предсказуемые, точные ответы. При высокой (0.8-1.0) — более творческие и разнообразные, но менее точные. Для кода лучше низкая, для творчества — высокая температура.
Минимальная единица текста, с которой работает AI. Это может быть слово, часть слова или знак препинания. На английском ~1 токен ≈ 0.75 слова. На русском — обычно ~1 токен ≈ 0.5-0.6 слова (из-за более длинных слов). Модели имеют лимиты по токенам: например, «128K токенов» означает ~80-100 тысяч слов.
Архитектура нейросети, созданная Google в 2017 году (статья «Attention Is All You Need»). Позволяет модели «обращать внимание» на все части текста одновременно, а не только на последние слова. Стала основой для GPT, BERT, Claude, Gemini и практически всех современных LLM.
Термин не найден
Попробуйте другой запрос или прочитайте наш гайд по AI