Образование

Как работают LLM: от T9 к GPT

Простое объяснение того, как на самом деле думает ChatGPT. Без магии, только математика и статистика

Как работают LLM: от T9 к GPT
Сергей Шима

Сергей Шима

Chief AI Officer, TDI Group

9 января 2026 г.7 мин чтения

Когда я провожу корпоративные тренинги, первый вопрос всегда один: "Как эта штука вообще работает?" Люди боятся технологии, которую не понимают. Снимем этот страх за 7 минут.

ChatGPT — это очень умный T9

Помните кнопочные телефоны? Набираете "прив" — телефон предлагает "привет". Это предсказание следующего символа на основе статистики: какие буквы чаще всего идут после "прив".

ChatGPT делает то же самое. Только вместо одной буквы он предсказывает следующее слово. И делает это не на основе словаря из 50 000 слов, а на основе триллионов текстов из интернета.

Вы пишете: "Столица Франции —" Модель думает: "После этих слов в 99.7% случаев идёт слово Париж" И отвечает: "Париж"

Никакого понимания. Никакого сознания. Чистая статистика на стероидах.

Почему это важно понимать

Когда вы знаете, что ChatGPT — это предсказатель текста, вы перестаёте ждать от него невозможного.

Он не умеет считать. Спросите "сколько будет 17 × 23" — он не вычисляет. Он предсказывает, какое число чаще всего встречается после такого вопроса в текстах. Иногда угадывает, иногда нет.

Он не знает текущих событий. Модель обучена на данных до определённой даты. После этой даты — темнота. Он может сгенерировать что-то похожее на правду, но это будет статистическая галлюцинация.

Он не понимает контекст за пределами чата. Для модели не существует "вашей компании" или "вашей отрасли", пока вы не опишете это в запросе.

Токены: как машина видит текст

Для нас текст — это слова и предложения. Для машины — токены. Это куски текста, которые модель научилась распознавать.

Слово "привет" — один токен. Слово "программирование" — возможно, два токена: "программ" + "ирование". Эмодзи — отдельный токен. Знак препинания — токен.

Почему это важно? У каждой модели есть лимит токенов. GPT-4 может обработать около 128 000 токенов за раз. Это примерно 300 страниц текста. Claude — до миллиона токенов в некоторых версиях.

Когда вы загружаете длинный документ и модель начинает "забывать" начало — это не баг. Это ограничение окна контекста.

Семантическая математика: как AI понимает смысл

Вот где начинается магия. Точнее, математика, которая выглядит как магия.

Модель превращает каждое слово в набор чисел — вектор. Эти числа отражают смысловые связи между словами.

Классический пример: Король − Мужчина + Женщина = Королева

Это не метафора. Это реальная математическая операция с векторами. Модель "знает", что король относится к королеве так же, как мужчина относится к женщине.

Или другой пример: Париж − Франция + Германия = Берлин

Модель выучила, что Париж для Франции — как Берлин для Германии.

Поэтому LLM может понять, что "быстрый автомобиль" и "скоростная машина" — про одно и то же. Не потому что в неё заложили синонимы, а потому что эти фразы встречались в похожих контекстах.

Температура: почему ответы разные каждый раз

Если модель просто выбирает самое вероятное слово, почему на один запрос она даёт разные ответы?

Дело в параметре "температура". При температуре 0 модель всегда выбирает самое вероятное слово. Результат предсказуем и скучен.

При температуре 1 модель иногда выбирает менее вероятные варианты. Появляется творчество. И галлюцинации.

Для бизнес-задач лучше работает низкая температура. Для креатива — средняя. Высокая температура — это рулетка.

Что это значит для вашей работы

Правило 1: Давайте контекст. Модель предсказывает на основе того, что вы ей дали. Больше контекста — точнее предсказание. Меньше — больше домыслов.

Правило 2: Проверяйте факты. Модель не знает, что правда. Она знает, что часто встречается в текстах. Это не одно и то же.

Правило 3: Новый чат — новая задача. Контекст из предыдущих вопросов влияет на ответы. Если обсуждали маркетинг, а потом спросили про финансы — финансовый ответ может содержать "маркетинговые" артефакты.

Правило 4: Форматируйте ожидания. Скажите модели, в каком формате нужен ответ. "Ответь списком из 5 пунктов" работает лучше, чем "расскажи подробно".

Практический тест

Хотите увидеть, как работает предсказание? Попробуйте это:

Напишите в ChatGPT: "Продолжи предложение: Каждое утро CEO крупной компании начинает с..."

Модель выдаст что-то вроде "проверки почты", "анализа ключевых метрик", "совещания с командой". Почему? Потому что в текстах про CEO это встречается чаще всего.

А теперь напишите: "Продолжи предложение: Каждое утро инопланетянин Зорг начинает с..."

Результат будет творческим и непредсказуемым. У модели нет статистики про Зорга, поэтому она комбинирует паттерны из разных источников.

Почему это не страшно

LLM — не искусственный интеллект в том смысле, как показывают в кино. Это инструмент. Очень мощный, но инструмент.

Он не заменит экспертизу. Он усилит её. Человек, который понимает свою область и умеет ставить задачи, получает от LLM в 10 раз больше пользы, чем человек, который просто "спрашивает у ChatGPT".

На наших тренингах мы учим именно этому — формулировать задачи так, чтобы статистический предсказатель давал экспертные результаты. Это навык, который останется с вами, какая бы модель ни вышла завтра.


Хотите, чтобы ваша команда научилась эффективно работать с LLM? Оставьте заявку — подберём программу под ваши задачи.

LLMChatGPTКак работает AIОбразование
Поделиться:
Сергей Шима

Сергей Шима

Chief AI Officer, TDI Group

20+ лет в маркетинге и рекламе. Работал с Pepsi, Nestle, Samsung, KIA. Grand Prix Effie. Обучил 20+ команд AI суперспособностям.

Похожие статьи

© 2026 AI Masters