Как работают LLM: от T9 к GPT
Простое объяснение того, как на самом деле думает ChatGPT. Без магии, только математика и статистика


Сергей Шима
Chief AI Officer, TDI Group
Когда я провожу корпоративные тренинги, первый вопрос всегда один: "Как эта штука вообще работает?" Люди боятся технологии, которую не понимают. Снимем этот страх за 7 минут.
ChatGPT — это очень умный T9
Помните кнопочные телефоны? Набираете "прив" — телефон предлагает "привет". Это предсказание следующего символа на основе статистики: какие буквы чаще всего идут после "прив".
ChatGPT делает то же самое. Только вместо одной буквы он предсказывает следующее слово. И делает это не на основе словаря из 50 000 слов, а на основе триллионов текстов из интернета.
Вы пишете: "Столица Франции —" Модель думает: "После этих слов в 99.7% случаев идёт слово Париж" И отвечает: "Париж"
Никакого понимания. Никакого сознания. Чистая статистика на стероидах.
Почему это важно понимать
Когда вы знаете, что ChatGPT — это предсказатель текста, вы перестаёте ждать от него невозможного.
Он не умеет считать. Спросите "сколько будет 17 × 23" — он не вычисляет. Он предсказывает, какое число чаще всего встречается после такого вопроса в текстах. Иногда угадывает, иногда нет.
Он не знает текущих событий. Модель обучена на данных до определённой даты. После этой даты — темнота. Он может сгенерировать что-то похожее на правду, но это будет статистическая галлюцинация.
Он не понимает контекст за пределами чата. Для модели не существует "вашей компании" или "вашей отрасли", пока вы не опишете это в запросе.
Токены: как машина видит текст
Для нас текст — это слова и предложения. Для машины — токены. Это куски текста, которые модель научилась распознавать.
Слово "привет" — один токен. Слово "программирование" — возможно, два токена: "программ" + "ирование". Эмодзи — отдельный токен. Знак препинания — токен.
Почему это важно? У каждой модели есть лимит токенов. GPT-4 может обработать около 128 000 токенов за раз. Это примерно 300 страниц текста. Claude — до миллиона токенов в некоторых версиях.
Когда вы загружаете длинный документ и модель начинает "забывать" начало — это не баг. Это ограничение окна контекста.
Семантическая математика: как AI понимает смысл
Вот где начинается магия. Точнее, математика, которая выглядит как магия.
Модель превращает каждое слово в набор чисел — вектор. Эти числа отражают смысловые связи между словами.
Классический пример: Король − Мужчина + Женщина = Королева
Это не метафора. Это реальная математическая операция с векторами. Модель "знает", что король относится к королеве так же, как мужчина относится к женщине.
Или другой пример: Париж − Франция + Германия = Берлин
Модель выучила, что Париж для Франции — как Берлин для Германии.
Поэтому LLM может понять, что "быстрый автомобиль" и "скоростная машина" — про одно и то же. Не потому что в неё заложили синонимы, а потому что эти фразы встречались в похожих контекстах.
Температура: почему ответы разные каждый раз
Если модель просто выбирает самое вероятное слово, почему на один запрос она даёт разные ответы?
Дело в параметре "температура". При температуре 0 модель всегда выбирает самое вероятное слово. Результат предсказуем и скучен.
При температуре 1 модель иногда выбирает менее вероятные варианты. Появляется творчество. И галлюцинации.
Для бизнес-задач лучше работает низкая температура. Для креатива — средняя. Высокая температура — это рулетка.
Что это значит для вашей работы
Правило 1: Давайте контекст. Модель предсказывает на основе того, что вы ей дали. Больше контекста — точнее предсказание. Меньше — больше домыслов.
Правило 2: Проверяйте факты. Модель не знает, что правда. Она знает, что часто встречается в текстах. Это не одно и то же.
Правило 3: Новый чат — новая задача. Контекст из предыдущих вопросов влияет на ответы. Если обсуждали маркетинг, а потом спросили про финансы — финансовый ответ может содержать "маркетинговые" артефакты.
Правило 4: Форматируйте ожидания. Скажите модели, в каком формате нужен ответ. "Ответь списком из 5 пунктов" работает лучше, чем "расскажи подробно".
Практический тест
Хотите увидеть, как работает предсказание? Попробуйте это:
Напишите в ChatGPT: "Продолжи предложение: Каждое утро CEO крупной компании начинает с..."
Модель выдаст что-то вроде "проверки почты", "анализа ключевых метрик", "совещания с командой". Почему? Потому что в текстах про CEO это встречается чаще всего.
А теперь напишите: "Продолжи предложение: Каждое утро инопланетянин Зорг начинает с..."
Результат будет творческим и непредсказуемым. У модели нет статистики про Зорга, поэтому она комбинирует паттерны из разных источников.
Почему это не страшно
LLM — не искусственный интеллект в том смысле, как показывают в кино. Это инструмент. Очень мощный, но инструмент.
Он не заменит экспертизу. Он усилит её. Человек, который понимает свою область и умеет ставить задачи, получает от LLM в 10 раз больше пользы, чем человек, который просто "спрашивает у ChatGPT".
На наших тренингах мы учим именно этому — формулировать задачи так, чтобы статистический предсказатель давал экспертные результаты. Это навык, который останется с вами, какая бы модель ни вышла завтра.
Хотите, чтобы ваша команда научилась эффективно работать с LLM? Оставьте заявку — подберём программу под ваши задачи.

Сергей Шима
Chief AI Officer, TDI Group
20+ лет в маркетинге и рекламе. Работал с Pepsi, Nestle, Samsung, KIA. Grand Prix Effie. Обучил 20+ команд AI суперспособностям.
Похожие статьи

Промпт инжиниринг: почему ты получаешь мусор и как это починить
Промптинг - это инженерия поведения модели, а не вежливая просьба. Разбираю архитектуру правильных промптов и даю протокол, который перестроит подход за один день.

Галлюцинации AI: почему нейросети врут и как с этим жить
ChatGPT уверенно называет несуществующие факты. Разбираемся, почему это происходит и как защитить бизнес от AI-выдумок

Почему новый чат = с нуля: как работает память ChatGPT
Объясняем, почему AI путает темы и как правильно организовать работу с чатами для предсказуемых результатов
© 2026 AI Masters