Современные большие языковые модели (LLM) — ChatGPT, Gemini, DeepSeek, Qwen — из экзотического инструмента превратились в повседневную рабочую среду для многих специалистов. Мы используем их для написания кода, анализа данных и генерации текстов, часто подходя к процессу по наитию: подбираем промпты (запросы к GPT), меняем формулировки и сохраняем удачные как рецепты.

Но как перейти от подбора к проектированию? Как не просто находить удачные инструкции, а конструировать их самостоятельно, понимая сильные и слабые стороны модели? Почему, например, разумнее открыть новую сессию с исправленным запросом, чем в старой стараться переубедить GPT? Иначе говоря, как подойти к "промптингу" ИИ-GPT более инженерно, более научно, более осознанно?

Давайте разбираться. Все эти модели основываются на архитектуре GPT (Generative Pre-trained Transformer), и чтобы перейти от промптинга по наитию к продвинутым запросам, нужно понимать принципы работы этой архитектуры. Цель этой серии статей — последовательно разобрать эти принципы, от математики и семантики, от архитектуры и свойств GPT до продвинутых техник промптинга.

Нас ждёт следующий цикл статей:

  1. Глава 1. Математика смыслов (эта статья, вы сейчас её читаете). Прежде чем говорить о нейросетях, мы заложим фундамент. Разберёмся, как можно «оцифровать» смысл, что такое семантические векторы, почему контекст решает всё и как связанные понятия можно представить в виде графа. Это азбука языка, на котором думает GPT.

  2. Глава 2. Архитектура GPT. Заглянем «под капот» трансформера. Мы разберем, как текст превращается в векторы (токенизация и эмбеддинги), как работает ключевой механизм — внимание (attention), и как слои нейросети последовательно обрабатывают информацию, чтобы сгенерировать осмысленный ответ. Это основа понимания фундаментальных свойств и ограничений моделей класса GPT.

  3. Глава 3. Свойства, вытекающие из архитектуры. Понимание устройства GPT позволяет увидеть его свойства: казуальное чтение (модель не может заглядывать вперед), влияние KV Cache, суперпозиция смыслов и решений, семантические графы и другое. На этих фундаментальных свойствах основываются техники промптинга.

  4. Глава 4. От свойств к техникам промптинга. Наконец, мы научимся конструировать запросы, которые эффективно используют потенциал GPT. Мы разберем такие техники промптинга как семантические разметки, XML-подобные графы, Waterfall 2.0 и другие. Рассмотрим примеры применения и вопросы этики.

В конечном итоге, благодаря фундаментальному пониманию работы ИИ-GPT, можно с гораздо большей осознанностью проектировать промпты и даже мета-промпты для ИИ-агентов.

Сегодня мы начинаем с первого, самого важного шага. В этой главе мы сознательно не будем говорить о нейронных сетях. Наша цель — освоить тот язык понятий, на котором построена вся современная работа с текстом в искусственном интеллекте.


Математика смыслов

Чтобы ответить на вопрос, почему одни запросы работают лучше других, нужно заглянуть «под капот» и понять, как GPT «видит» наш язык. В его основе лежит не магия, а элегантная система — математика смыслов. В этой главе мы сознательно не будем говорить о нейросетях. Наша цель — заложить фундамент, освоить тот язык понятий, на котором построена вся современная работа с текстом в искусственном интеллекте.

Представьте разницу между человеком, который готовит строго по кулинарной книге, и профессиональным шеф-поваром. Первый может приготовить отличное блюдо, но если чего-то нет под рукой или что-то пошло не так, он растеряется. Шеф-повар же, понимая химию и физику процессов — как карамелизуется сахар, почему сворачивается белок, — может импровизировать, создавать новые рецепты и исправлять ошибки на лету. Так же и с промптингом. Эта глава даст вам понимание «химии смыслов». Освоив его, вы перейдете от простого «следования рецептам» к осознанному «кулинарному творчеству» — конструированию точных и мощных запросов для решения именно ваших задач.

Представьте разницу между человеком, который готовит строго по кулинарной книге, и профессиональным шеф-поваром. Первый может приготовить отличное блюдо, но если чего-то нет под рукой или что-то пошло не так, он растеряется. Шеф-повар же, понимая химию и физику процессов — как карамелизуется сахар, почему сворачивается белок, — может импровизировать, создавать новые рецепты и исправлять ошибки на лету. Так же и с промптингом. Эта глава даст вам понимание «химии смыслов». Освоив его, вы перейдете от простого «следования рецептам» к осознанному «кулинарному творчеству» — конструированию точных и мощных запросов для решения именно ваших задач.

Из этой главы вы узнаете:

  • Как математика помогает кодировать и измерять «смысл».

  • Что такое семантический вектор и как с ним работать.

  • Почему контекст решает всё.

  • Что такое граф и как он помогает структурировать знания.

Приступим.

Семантика: как измерить смысл?

Семантика — это наука о смыслах. Слово «семантика» происходит от греческого sēmantikos (обозначающий) и означает как саму науку, так и смысл чего-либо. Например, у слов «преподаватель» и «учитель» очень близкая семантика. У слов «предприниматель» и «бизнесмен» — тоже. А вот «морковь» и «демократия» семантически далеки друг от друга. Вы даже можете почувствовать, как эти понятия активируют совершенно разные области вашего разума. Слова — это лишь указатели на смыслы.

Слово — это указатель на смысл.
Слово — это указатель на смысл.

Но как компьютеру, который понимает только числа, работать с такой абстрактной вещью, как смысл? Ответ: нужно превратить смысл в математический объект. Взгляните на эту визуализацию так называемого семантического пространства.

Визуализация семантического пространства Word2Vec. Каждая точка — это слово. Слова с близкими значениями, такие как названия животных или профессий, группируются вместе.
Визуализация семантического пространства Word2Vec. Каждая точка — это слово. Слова с близкими значениями, такие как названия животных или профессий, группируются вместе.

Каждая синяя точка здесь — это английское слово. Идея в том, что слова с похожим значением или из одной тематической области оказываются рядом в этом многомерном пространстве. Если вы найдете точку "dog" (собака), рядом с ней окажутся "dogs" (собаки), "cat" (кошка), "pet" (питомец) и "puppy" (щенок).

Как это работает? Краткая справка о проекте Word2Vec.

Откуда берется такая карта смыслов? Как компьютер «узнает», что «кошка» и «собака» должны быть рядом? Это не ручная работа, а результат автоматического анализа.

Основной принцип прост: значение слова определяется его окружением (контекстом). Специальные алгоритмы «прочитывают» гигантские объемы текста (например, всю Википедию и сотни тысяч книг) и методично записывают, какие слова чаще всего встречаются рядом друг с другом. Например, алгоритм замечает, что слова «король» и «королева» часто появляются в схожих контекстах, рядом со словами «трон», «дворец», «правит». А слово «морковь» — рядом со словами «огород», «суп», «витамин».

На основе этой статистики алгоритм подбирает для каждого слова такой вектор (набор координат), чтобы слова с похожим окружением оказались соседями в этом многомерном пространстве. Одним из первых прорывных методов, который реализовал эту идею, стал алгоритм Word2Vec (буквально «слово в вектор»), разработанный в Google в 2013 году. В результате получается математическая модель языка, где геометрическая близость векторов соответствует семантической близости слов.

Векторы: Алгебра, геометрия и семантика

Каждая точка в этом пространстве, по сути, является концом вектора — стрелки, идущей из центра координат. С точки зрения геометрии, вектор — это направление и длина. С точки зрения алгебры — просто упорядоченный набор чисел.

Давайте разберемся на простом примере. Представьте, что у нас есть «травяная аптека» с фиксированным набором баночек на полке. Порядок важен, и мы всегда перечисляем ингредиенты строго в нём:

  1. Ромашка (в граммах)

  2. Мята (в граммах)

  3. Липа (в граммах)

  4. Имбирь (в граммах)

Травяная аптека. Сгенерировано ИИ.
Травяная аптека. Сгенерировано ИИ.

Рецепт нашего фирменного «Успокаивающего сбора» — это просто набор чисел. Этот набор и есть вектор:

Вектор "Спокойствие" = (10, 5, 5, 0)

Это означает: 10г ромашки, 5г мяты, 5г липы и 0г имбиря. Это чистое, алгебраическое описание нашего чая.

  • Умножение вектора на число (изменение интенсивности): Хотите приготовить сбор на всю семью? Умножаем вектор на 3:
    3 * (10, 5, 5, 0) = (30, 15, 15, 0)
    Смысл чая («успокаивающий») не изменился, но изменилась его «интенсивность».

  • Сложение векторов (создание нового смысла): Наступила осень, и нужен противопростудный эффект. У нас есть рецепт «Иммунный бустер»:
    Вектор "Иммунитет" = (0, 0, 5, 10)
    Чтобы создать новый, комплексный чай, мы просто складываем эти два вектора:
    "Спокойствие" + "Иммунитет" = (10, 5, 5, 0) + (0, 0, 5, 10) = (10, 5, 10, 10)
    Мы математически объединили два смысла и получили новый — «Согревающий вечерний чай».

Теперь вернемся к словам. Вектор, описывающий смысл слова, называется семантическим вектором. И с ними можно проводить такие же операции!

Векторная арифметика смыслов. Векторная разница между «дядей» и «тётей» примерно такая же, как между «мужчиной» и «женщиной», что демонстрирует наличие семантической структуры в пространстве. Скриншот из видео с канала 3B1B.
Векторная арифметика смыслов. Векторная разница между «дядей» и «тётей» примерно такая же, как между «мужчиной» и «женщиной», что демонстрирует наличие семантической структуры в пространстве. Скриншот из видео с канала 3B1B.

Знаменитый пример: Вектор("Король") - Вектор("Мужчина") + Вектор("Женщина") ≈ Вектор("Королева").
Мы «вычитаем» из «Короля» семантику мужского пола и «добавляем» семантику женского, получаем «Королеву». Эти примеры показывают главное: смысл можно измерять, складывать и вычитать. Иначе говоря, над смыслом можно совершать арифметические операции.

Сила этого подхода в его универсальности. Взгляните, как через векторные операции проявляются самые разные типы отношений (далее для удобства мы будем опускать формальное Вектор()):

  • Россия - Москва + Париж ≈ Франция (отношение «страна ↔ её столица»)

  • Плавал - плавать + бежать ≈ Бежал (отношение «настоящее время ↔ прошедшее»)

  • стакан - вода + еда ≈ Тарелка (отношение «объект ↔ его содержимое»)

Если рассмотреть семантическую разницу стакан и вода, то получим семантический вектор, который примерно означает «ёмкость».

стакан - вода ≈ ёмкость

Важно понимать, что эти равенства — не абсолютная математическая истина, а скорее демонстрация принципа. Результат Король - Мужчина + Женщина не даст нам в точности тот же вектор, что и у слова «Королева», но он окажется в семантическом пространстве невероятно близко к нему.

Главный вывод: смыслы можно измерять, сравнивать и преобразовывать с помощью математических операций. Мы можем «вычесть» из понятия его атрибут или «добавить» новый. Мы можем измерить «расстояние» между двумя идеями. Это и есть та самая математика смыслов, фундамент, на котором построен любая нейросеть на базе GPT.

Значение слова — только в контексте

Что значит слово «ключ»? Что вы видите в своем уме? Гаечный? Музыкальный? Родник? От двери? Большой, маленький? Железный, золотой? В отрыве от других слов «ключ» — это не одно понятие, а суперпозиция всех возможных смыслов. Это как размытое облако вероятностей, где все значения существуют одновременно. Смысл кристаллизуется, «схлопывается» в нечто конкретное, только когда появляется контекст.

  • «Он нашел ключ и открыл дверь». — Слово «дверь» притягивает к себе «замочный» смысл ключа и отталкивает все остальные.

  • «Он нашел ключ в лесу, и вода в нем была чистая». — Слова «лес» и «вода» мгновенно активируют смысл «родник».

  • «Басовый ключ стоял в начале нотного стана». — Контекст «нотного стана» не оставляет сомнений.

Контекст работает как фильтр или система весов. Он усиливает релевантные аспекты смысла слова и ослабляет нерелевантные. Чтобы понять истинное значение слова «ключ», наш ум обращает внимание на слова «дверь», «лес», «нотный стан».

Запомните это слово — внимание. Это не просто красивая метафора. Это название центрального математического механизма в работе GPT, который мы разберем в следующих главах.

"ключ" - это слово с суперпозицией всех возможных смыслов. На картинке изображен "мутант" из разных образов. Сгенерировано через ИИ.
"ключ" - это слово с суперпозицией всех возможных смыслов. На картинке изображен "мутант" из разных образов. Сгенерировано через ИИ.

Граф: карта связей

Мы научились представлять отдельные смыслы в виде векторов. Но как представить связи между ними? Для этого в математике существует элегантный инструмент — граф.

Представьте карту дорог. Города — это точки. Дороги, которые их соединяют, — это линии. Это и есть граф. В математике точки называют узлами (или вершинами), а линии — ребрами.

Граф — математический объект
Граф — математический объект

На рисунке выше вы видите пример графа. Пусть у нас есть города: A, B, C, D, E, F. По рисунку можно заметить, что из города A идет дорога в B, C, F. Из города B в C, и так далее.

Но графы описывают не только географические карты. Давайте рассмотрим более жизненный пример — социальную сеть.

Социальная сеть — это классический пример графа, где узлы — это люди, а ребра — их социальные связи.
Социальная сеть — это классический пример графа, где узлы — это люди, а ребра — их социальные связи.

В этой модели каждый узел (или вершина) — это пользователь, человек со своей страницей. А ребро, линия, соединяющая двух пользователей, — это отношение между ними, например, «дружба» или «подписка».

Такое представление позволяет алгоритмам легко отвечать на вопросы: «Кто наши общие друзья?», «Каких людей порекомендовать в качестве новых знакомых?», «Какие группы по интересам существуют в этой сети?». Алгоритмы анализируют структуру связей, находят самые влиятельные узлы (инфлюенсеров) или плотные скопления (сообщества).

Граф — это универсальный способ описать любые связи:

  • Социальная сеть: Узлы — это люди, ребра — отношения «дружбы» между ними.

  • Молекула воды: Узлы — это атомы (два водорода, один кислород), ребра — химические связи.

  • План проекта: Узлы — это задачи, ребра — зависимости («нельзя начать задачу Б, пока не сделана А»).

Интересно, что узлы и ребра могут иметь свои свойства (атрибуты). На ребре «дорога» можно написать ее длину в километрах. На узле «город» — его население и название.

Граф знаний

А теперь представьте, что узлы — это не города и не страницы в соц.сетях, а понятия: «GPT», «Вектор», «Нейросеть». А ребра — это связи между ними: «GPT использует Векторы», «GPT — это тип Нейросети». Мы получили граф знаний — карту смыслов и отношений между ними.

У узлов и ребёр в графе могут быть свои атрибуты.
У узлов и ребёр в графе могут быть свои атрибуты.

Любой связный текст, будь то научная статья или эта методичка, можно представить в виде такого графа.
Самое интересное, что прямо сейчас, читая эти строки, вы путешествуете по такому графу. Понятия, которые мы обсуждаем — «семантика», «вектор», «контекст» — это узлы. А логика нашего повествования — это ребра, соединяющие их. Чтобы сделать эту идею еще нагляднее, я превратил эту главу в настоящий граф знаний в виде диаграммы. Вы можете изучить его в ниже.

Граф-знаний в виде диаграммы этой статьи.
Граф-знаний в виде диаграммы этой статьи.

Кстати эта диаграмма была сгенерирована автоматически с помощью Gemini 2.5 Pro. Я отправил свою статью в Gemini Pro и попросил построить по статье граф, чтобы я мог его завизуализировать.

Как записать граф? Есть два основных способа:

  1. Список ребер: Просто перечисляем все связи парами. Для графа дорог это будет: (A, B), (A, C), (A, F), (B, C), ...

  2. Матрица смежности: Это таблица, где по строкам и столбцам стоят все узлы. На пересечении ставится 1, если связь есть, и 0, если ее нет.

Граф можно записать как 1) набор ребер 2) и как таблицу.
Граф можно записать как 1) набор ребер 2) и как таблицу.

Подпись: граф можно записать 1) как набор ребер 2) и как таблицу.


Заключение главы

Давайте остановимся и подведем итог. В этой главе мы сознательно избегали разговоров о нейросетях класса GPT, но при этом изучили четыре фундаментальные концепции, которые лежат в их основе:

  1. Смыслы можно оцифровать. Любое слово, фразу или идею можно представить в виде вектора — набора чисел в многомерном пространстве.

  2. Контекст придает смыслу точность. Слово в отрыве от окружения — лишь суперпозиция значений. Именно контекст позволяет «схлопнуть» эту неопределенность до конкретного, нужного нам смысла.

  3. Смыслы подчиняются законам математики. Мы можем складывать, вычитать и сравнивать векторы, тем самым создавая новые смыслы или анализируя отношения между существующими.

  4. Смыслы и их связи образуют структуру. Отношения между понятиями можно наглядно представить в виде графа, создавая карту знаний.

Эти четыре идеи — векторы, контекст, математические операции и графы — и есть та самая «азбука», на которой говорит GPT. Мир языка для него — это не набор букв, а гигантское, сложно устроенное семантическое пространство, где каждое понятие имеет свои координаты (вектор), уточняемые контекстом, а логика повествования — это маршрут, проложенный по графу связей.

Теперь, когда у нас есть этот фундамент, мы готовы заглянуть «под капот». В следующей главе мы увидим, как эти математические абстракции оживают внутри архитектуры GPT, как текст превращается в векторы, как механизм «внимания» использует контекст и как из всей этой сложной математики рождается осмысленный ответ.

А пока — закрепите полученные знания с помощью упражнений.


Упражнения

  • Задача на составление вектора. Какой вектор получится, если смешать половину порции «Спокойствия» и двойную порцию «Иммунитета» в примере «травяная аптека»?

  • Определите, какой смысл будет у следующих семантических векторов:

    • рубль - Россия + Европа ≈ ?

    • стол - столы + стул ≈ ?

    • больница - врач + учитель ≈ ?

    • рыба - вода + воздух ≈ ?

    • забивать - молоток + пила ≈ ?

  • Определите семантическую разницу у следующих выражений:

    • королева - король ≈ ?

    • теплее - тёплый ≈ ?

    • Берлин - Германия ≈ ?

  • Что означает слово «замок»? Нарисуйте, просто и схематично, возможные варианты. Придумайте предложения со словом «замок», в которых уточняется одно из возможных значений.

  • Петя дружит с Мишей, Миша дружит с Колей и Ваней, Коля дружит с Ваней и Сашей, Саша дружит с Никитой. Нарисуйте граф дружбы ребят. Представьте этот граф в виде списка пар и в виде матрицы смежности (таблицы).


Эта серия статей формирует методичку — структурированный фундамент. Если вам было интересно и хочется продолжения, анонсы новых статей и короткие заметки на эту тему я публикую в своём телеграм канале «Семантический архитектор». Подписывайтесь.

Ps: премного благодарен специалисту Владимиру Иванову за его труд, за щедрое распространение знаний о GPT.

Комментарии (0)


  1. ioleynikov
    18.09.2025 08:08

    У меня в башке давно крутится мысль о том, что коль скоро все понятия, сущности представлены векторами эмбеддингов, то по уму иметь некую матричную алгебру переходящую одни понятия в другие. В самых простейших случаях эти матрицы могут быть операциями морфологического преобразования числа, рода, падежа, спряжения, склонения, а в более продвинутых ситуациях некими глагольными действиями. Например операция "рождение" имеет на входе беременную "мать" и получает на выходе сущность "ребенка". Такая лингвистическая матричная алгебра могла бы представить буквально все NLP операции в строгом математическом виде и с высокой точностью. Это может быть полезно для точного понимания, верификации и генерации текстов. Вся лингвистика превращается в строгую математическую дисциплину? Нахождение самих матриц преобразования эмбеддингов мне кажется не должно быть очень сложной процедурой. Из корпусов текстов всегда можно извлечь огромное количество пар вектора, на основании которых можно восстановить матрицы трансформаций например методом наименьших квадратов.


    1. magorokhoov Автор
      18.09.2025 08:08

      Вся лингвистика превращается в строгую математическую дисциплину?

      Вполне. Иначе бы GPT не смог бы работать с нашими текстами. Он буквально видит смыслы, семантику. В целом, я согласен с вашим направлением мысли.

      У GPT один семантический вектор, который формируется под токеном, имеет емкость около 4000 параметров (если брать DeepSeek) и около 12000, если брать крупные модели вроде Gemini Pro. Это колоссальная емкость, в один такой вектор может складываться очень серьезные и сложные понятия, и над всеми этими понятиями делаются арифметические операции.

      Спасибо за комментарий, он дополняет статью.


      1. ioleynikov
        18.09.2025 08:08

        Рад, что вы увидели и оценили мою реплику. Спасибо! Я сам по первому образованию физик и сразу узрел в эмбеддингах и дистрибутивный семантике большой смысл и скрытые проблемы. Она напомнила мне ситуацию начала 20-х годов в области квантовой физики. Природа взаимодействия материи и энергии на микроуровне была сложна и не понятна до изобретения матричной механики Гейзенберга. Манипуляции квантами при помощи матриц все поставили на свои места и привели к открытию транзисторов, лазеров. Я ничего не имею против трансформеров LLM но дело в том, что логика преобразований размазан в них по миллиардам параметров, не очевидна для человеческого восприятия и подвержена галлюцинациям. Это фундаментальное ограничение нейросетевых моделей не позволяет применить GPT в критических приложениях. Матричные операции с эмбеддингами абсолютно прозрачны для понимания, точны и скорее всего будут более эффективны с вычислительной точки зрения чем трансформеры. Ещё раз спасибо и удачи!


      1. ioleynikov
        18.09.2025 08:08

        Ещё один важный момент. Сложные многоэтапные преобразования векторов понятий могут быть представлены цепочками матричных операций, но благодаря самой природе линейной алгебры мы можем заранее перемножить все эти матрицы и получить только одну результирующую. Это позволит крайне эффективно манипулировать сложными текстами. Опять же аналогия с физикой и математикой. Сложные последовательные операции над временными и пространственными данными можно свести к единичной трансформации в частотной области, что является крайне эффективным методом фильтрации.


    1. janvarev
      18.09.2025 08:08

      Вы изобрели word2vec, он был до прихода эмбедингов и GPT.


  1. ioleynikov
    18.09.2025 08:08

    Ничего я не изобретал. Word2vec придумал чех Томаш Миколов, работая в Google в 2013 году и именно этот алгоритм открыл двери всем современным системам типа GPT. Я говорю немного о другом. Дистрибутивная семантика и векторное представление (эмбеддинги) просто сами напрашиваются на использование некоей матричной алгебры для трансформаций но это не эквивалентно глубоким нейросетям! Это немного другой более логически прозрачный подход