ИИ развивается с невероятной скоростью. Еще вчера мы удивлялись чат-ботам, а сегодня нейросети пишут код, создают изображения и помогают в научных исследованиях. Вместе с технологиями приходит и новый лексикон. Если вы чувствуете себя немного потерянным, слыша слова «промпт», «токен» или «галлюцинации ИИ», не волнуйтесь. Эта статья — ваш краткий и понятный путеводитель по ключевым терминам современного AI.
Давайте разберемся, что стоит за этими понятиями.
1. Промпт (Prompt)
Простыми словами: это ваш запрос или инструкция для нейросети.
Допустим, вы общаетесь с невероятно способным, но очень буквальным ассистентом. Промпт — это то, как вы ставите ему задачу. Это может быть вопрос, команда, фрагмент текста для продолжения или даже сложный набор инструкций с примерами.
Пример простого промпта: «Напиши короткое стихотворение о дожде».
Пример сложного промпта: «Ты — опытный маркетолог. Проанализируй следующий текст для целевой аудитории IT-специалистов 25-35 лет. Укажи сильные и слабые стороны с точки зрения убедительности и предложи 3 варианта для более цепляющего заголовка».
Короче говоря, качество ответа нейросети напрямую зависит от качества вашего промпта. Искусство составления эффективных запросов даже получило собственное название — промпт-инжиниринг (prompt engineering). Запомните, хороший промпт — залог хорошего результата.
2. Токен (Token)
Простыми словами: это базовая единица информации, на которые нейросеть «дробит» текст.
Когда мы видим текст, мы видим буквы и слова. А вот языковая модель видит последовательность токенов. Токен — это не всегда одно слово. Это может быть целое слово, часть слова, знак препинания или даже пробел.
Например, слово «искусственный» может быть разделено на токены «искусств» и «енный». А короткое слово вроде «дом» будет одним токеном.
Почему же это важно?
Ограничения моделей: У каждой модели есть так называемое «контекстное окно» — максимальное количество токенов, которое она может обработать за один раз (включая и промпт, и ответ). Например, 8000, 32000 или даже 200 000 токенов.
Стоимость: Если вы используете ИИ через API (например, для своего приложения), стоимость часто рассчитывается именно по количеству использованных токенов. Чем больше токенов, тем дороже.
3. Модель (Model)
Простыми словами: это «мозг» всей системы.
Модель — это сложная математическая система (нейронная сеть), обученная на гигантских объемах данных для выполнения определенной задачи. Это не сам чат-бот или приложение, а тот движок, который работает «под капотом». Модель — это результат длительного и дорогостоящего процесса обучения. Например, GPT-5, Claude 4, Gemini 2.5 Pro.
Когда вы пишете в ChatGPT, вы отправляете свой промпт не на сайт, а именно модели GPT-5 (или другой, в зависимости от вашей подписки).
4. LLM (Large Language Model / Большая Языковая Модель)
Простыми словами: это особый тип ИИ-модели, созданный для работы с человеческим языком.
LLM — это подкласс моделей, которые специализируются на понимании, генерации, переводе и анализе текста. Слово «Большая» здесь не для красного словца:
- Большие данные: Они обучаются на триллионах слов из интернета, книг, статей.
- Большой размер: Они состоят из миллиардов (иногда сотен миллиардов) параметров — это, условно говоря, «нейронные связи» внутри модели, которые и хранят ее «знания».
Все популярные текстовые нейросети, такие как ChatGPT, Claude или Gemini, основаны на LLM.
5. Галлюцинации (Hallucinations)
Простыми словами: когда нейросеть выдумывает факты и подает их с полной уверенностью.
Это одна из самых больших проблем современных LLM. Галлюцинация — это не сбой или ошибка в коде. Это фундаментальное свойство работы модели. Она не ищет информацию в базе данных, а генерирует текст, предсказывая наиболее вероятное следующее слово на основе изученных паттернов. Иногда эти статистически вероятные, но фактически неверные последовательности слов выглядят как правдоподобные факты.
Например, можете попросить LLM привести список научных работ по теме, и она сгенерирует убедительный список с именами авторов и названиями журналов, вот только ни этих статей, ни этих авторов может не существовать в реальности.
Поэтому всегда проверяйте критически важную информацию, которую выдает ИИ. Не доверяйте ему слепо, особенно когда речь идет о фактах, датах, цитатах или цифрах.
6. Дообучение / Тонкая настройка (Fine-tuning)
Простыми словами: адаптация уже существующей большой модели под вашу конкретную задачу.
Например, у вас есть гениальный выпускник университета (это базовая LLM), который знает обо всем понемногу. Но вам нужен не эрудит, а специалист по юриспруденции. Вы не будете учить его всему заново. Вместо этого вы дадите ему изучить ваши корпоративные юридические документы, и он станет экспертом именно в вашей области.
Это и есть дообучение. Компании берут мощную базовую модель (например, GPT-5) и дообучают ее на своем, более узком и специфическом наборе данных (медицинские записи, техническая документация, диалоги службы поддержки).
Это позволяет:
- Повысить точность ответов в конкретной предметной области.
- Заставить модель говорить в определенном стиле (например, в tone-of-voice вашего бренда).
- Снизить количество галлюцинаций по узкой теме.
- Создать специализированные AI-решения для бизнеса.
Понимание этой базовой терминологии — первый шаг к тому, чтобы не просто пользоваться AI-инструментами, а делать это осознанно, эффективно и безопасно.