Вот, на мой взгляд, одно из лучших описаний того, что произойдет в области ИИ в ближайшие 10 лет, написанное Леопольд Ашенбреннер из OpenAI.

Я настоятельно рекомендую прочитать весь текст, но если вы ленивы, как я, вот несколько ключевых выводов.

Короче говоря, очень скоро по нашим улицам будут гулять терминаторы. А если же подробнее:

Гонка за созданием ИИ общего назначения (AGI) уже началась. Мы строим машины, которые могут думать и рассуждать. К 2025-2026 годам эти машины превзойдут многих выпускников университетов. К концу десятилетия они станут умнее вас и меня; у нас появится сверхинтеллект в истинном смысле этого слова. К 2027 году мы можем создать полноценный AGI, и тогда наступит так называемый «горизонт событий», означающий, что прогнозировать события после этого будет сложно, так как изменения начнут ускоряться. Это связано с тем, что мы достигнем автоматизированного исследования ИИ, что может значительно ускорить существующие тенденции алгоритмического прогресса, сжимая десятилетия достижений в один год.

Послушайте. Модели просто хотят учиться. Вы должны это понять. Модели просто хотят учиться.
Илья Суцкевер (примерно 2015 год, по словам Дарио Амодея)

Переход от GPT-2 к o1 был грандиозным и занял всего два года. Возможности ИИ масштабируются просто за счет увеличения вычислительных мощностей, и ключевые игроки прекрасно это понимают. Посмотрите хотя бы на недавнее объявление Трампа о совместной инициативе OpenAI, Oracle и SoftBank по созданию вычислительного кластера для ИИ стоимостью 500 миллиардов долларов. Мы уже буквально исчерпываем существующие бенчмарки.

Вычислительные мощности также выросли невероятно:

Модели так же становятся гораздо более эффективными, добавляя ещё один порядок улучшений, а также объем тренировочных данных. Я часто слышу, что скоро данные закончатся (так называемая «data wall»), а синтетические данные, которые по сути неограниченны, недостаточно хороши. Но так ли это? Посмотрите на последнюю и лучшую версию AlphaGo, которая была обучена исключительно на синтетических данных, играя сама с собой, без участия человека. Большинство данных из интернета — это всё равно мусор, не имеющий никакого значения или ценности (посмотрите хотя бы на контент vc.ru), сиентетические данные гораздо чище.

Прогресс ИИ не остановится на уровне человека. Нет особых причин или физических ограничений, которые могли бы этому помешать. После того как AlphaGo первоначально обучилась на лучших партиях людей, она начала играть сама с собой — и быстро превзошла человеческий уровень, создавая чрезвычайно творческие и сложные ходы, до которых человек никогда бы не додумался.

Есть потенциальные ограничения, главным из которых является энергопотребление, но это не проблема, которую нельзя решить, и вряд ли мы упремся в эту стену до события AGI. Например, для увеличения вычислительных мощностей на четыре порядка потребуется 20% электроэнергии США (100 ГВт). Это много, но тут нет ничего невозможного.

Тот, кто достигнет этого первым, получит невероятное преимущество перед другими. Этот инструмент, если его удастся контролировать (что совсем не гарантировано), станет оружием, которому не смогут противостоять никакие ядерные арсеналы.

Два основных всадника этого процесса — Nvidia и TSMC. Посмотрите на рост доходов Nvidia от ИИ:

Вот так совпадение
Вот так совпадение

Это всё новые заказы, и спрос еще больше. Они уже упираются в производственные мощности. Если вы думаете, что такие инвестиции не могут продолжаться долго — подумайте ещё раз. Проект «Манхэттен» имел схожий масштаб расходов на протяжении десятилетия, а здесь речь идет об оружии намного мощнее.

Китай и США скоро осознают это и введут жёсткие ограничения на экспорт GPU. Они уже начали, поскольку это единственный ограничивающий фактор, который можно контролировать. Модели — это просто код и веса. Их легко украсть, но производство полупроводников чрезвычайно сложно и требует времени и инфраструктуры для воспроизведения, это не скейлится быстро. Сейчас есть лишь несколько компаний, которые делают это в больших масштабах: TSMC, Samsung. А инструменты производства чипов также монополизированы компаниями ASML и рядом других.

Китай продвинулся в своей технологии полупроводников до уровня 7-9 нм, поэтому он, вероятно, сможет преодолеть ограничения, если у него будет достаточно времени. А сможет ли кто-то другой? Вряд ли. Это означает, что только США и Китай имеют шансы первыми достичь AGI. Остальным остаётся лишь наблюдать и надеяться на участие в какой-то степени, и чем менее производство полупроводников развито - тем в меньшей степени.

Много разговоров идет об «алигменте» моделей ИИ с человеческими ценностями, но до конца непонятно, что это вообще значит, так как Китай, например, имеет совсем другой набор целей для выравнивания, чем США. Да и никто не знает, как это сделать. На данный момент это кажется крайне сложным, если вообще возможным. Не то чтобы нам не стоило пытаться, но интеллект — это в конечном итоге высший механизм выживания.

Опасней всего выглядит переход моделей на свой собственный, более совершенный язык чем английский. Английский довольно корявый язык на самом то деле, хоть и простой, моделям совершенно не нужно думать на нем, и как естественный шаг оптимизации и уменьшения количества токенов выглядит разработка model-speech. Но тогда мы вообще перестанем понимать что происходит. Как говорит Эрик Шмидт, в тот момент, когда ИИ-агенты начнут общаться друг с другом на языке, который мы не можем понять, нам следует отключить компьютеры. Но этого, конечно, никто не станет делать.


Всем добра!

Комментарии (12)


  1. CrazyElf
    23.01.2025 06:48

    Скайнет неминуем. В том или ином виде.


  1. ManulVRN
    23.01.2025 06:48

    В отличие от термоядерной энергетики, здесь прогнозы говорят об очень близком будущем, включая даже нынешний год. Будем посмотреть, что тут еще скажешь.


  1. N-Cube
    23.01.2025 06:48

    Посмотрите на последнюю и лучшую версию AlphaGo, которая была обучена исключительно на синтетических данных, играя сама с собой, без участия человека.

    Нет, это не синтетические данные, а вполне реальные, любое количество игровых партий легко сгенерировать.

    Большинство данных из интернета — это всё равно мусор, не имеющий никакого значения или ценности (посмотрите хотя бы на контент vc.ru), сиентетические данные гораздо чище.

    Абсурдно сравнивать доступные в интернет реальные данные Большого адронного коллайдера или радиотелескопов с виртуальными шахматными партиями. Автор предлагает выкинуть все зашумленные (то есть реальные) данные и обучать ИИ на игре в шахматы, в подкидного дурака и прочих?

    Прогресс ИИ не остановится на уровне человека. Нет особых причин или физических ограничений, которые могли бы этому помешать.

    Нет никаких причин сравнивать комбинаторику токенов (или калейдоскоп) с человеком.

    После того как AlphaGo первоначально обучилась на лучших партиях людей, она начала играть сама с собой — и быстро превзошла человеческий уровень, создавая чрезвычайно творческие и сложные ходы, до которых человек никогда бы не додумался.

    А это просто ложь - многие из этих ходов когда-то кем-то были сыграны, но не сохранены, и любые другие потенциально могут быть сыграны людьми. Нет ничего нового, что задачи с конечным, но огромным, числом решений могут быть решены тем лучше, чем больше вариантов удается перебрать. Проблема в применимости результатов - скажем, задача поиска кратчайшего пути (задача коммивояжера) может выглядеть аналогично шахматам, но как только мы начинаем учитывать реалтайм трафик на дорогах (те самые реальные зашумленные данные), любое предварительно посчитанное решение (к примеру, для пустых дорог) становится бесполезным, а обучать новую модель на новых данных каждую минуту или секунду нереально.


    1. CrazyElf
      23.01.2025 06:48

      Траффик на дорогах - это обычная сезонность, её давно научились учитывать в моделях. Шум и мусор - это совсем другое.


      1. N-Cube
        23.01.2025 06:48

        Полная ерунда, как возможно предвидеть время и продолжительность всех ремонтов, аварий и прочих природных и техногенных событий на дорогах? Вы готовы поставить свой годовой доход на то, что в любой точке мира предскажете хотя бы все аварии с точностью до минуты, их местоположение и время устранения последствий? А погоду? Уверен, что нет, хотя утверждаете, что это "давно научились".


        1. CrazyElf
          23.01.2025 06:48

          В среднем на траффик в основном влияет день недели и время дня. Это можно и нужно предсказывать. Аварии да - это шум, но они влияют гораздо меньше на трафик. И переобучать модель для их учёта не нужно, данные о них можно учесть в работающей модели в реальном времени, это не проблема. Яндекс так и делает, насколько я понимаю.


          1. N-Cube
            23.01.2025 06:48

            На трафик порой катастрофически влияют непредвиденные факторы типа аварий, погодных условий, внезапных ремонтов и прочие. Для публичного роутинга с учетом трафика хотя бы в масштабах страны, вам нужно собирать данные с множества автомобилей (к примеру, для Германии нужен примерно миллион автомобилей для получения хорошего покрытия основных дорог) и каждую минуту обновлять информацию о пропускной способности каждого сегмента (используются около 50-200 метров сегменты), находить пробки и определять их продолжительность и так далее. Вот можете посмотреть, что прямо сейчас в Берлине на дорогах происходит: http://168.119.13.240/tj.html#map=11/52.5237/13.4047 А за ваше "в среднем" пользователи копейки не заплатят, потому что даже бесплатный роутинг на гуглокартах с трафиком полезнее.


  1. snowy-owl
    23.01.2025 06:48

    Мне все-таки кажется, что одной из главных проблем является ограниченность данных для обучения


    1. Indemsys
      23.01.2025 06:48

      Leopold Aschenbrenner считает что сейчас модели неэффективно учатся.
      Но по его анализу рост ума у ИИ происходит на половину от того что улучшаются алгоритмы обучения. Алгоритмы улучшаются потому что улучшается аппаратная база. И поэтому исчерпание интернета не приведет к остановке роста ума ИИ. А после 2027 года этому ИИ уже не будут нужны наши данные , он сам начнет их искать (видимо уже в космосе).


      1. snowy-owl
        23.01.2025 06:48

        Вот в этой статье (https://habr.com/ru/articles/873110/) очень хорошо объяснено, чем достигаются успехи в ИИ. Мне мнение автора близко. Не думаю, что данные настолько уж неважны для "роста ума ИИ"



  1. Indemsys
    23.01.2025 06:48

    Какая-то непонятная ситуация.
    С одной стороны заявляют о инвестиции 500 млрд. в сильный ИИ.
    Но данные epoch.ai говорят что сами по себе компьютеры для этих моделей сравнительно недорогие, ну там по 5 млн. долларов как DeepSeek. Обучения около 100 дней.
    Очень приблизительно за это время за электроэнергию надо заплатить 4 млн. долларов.
    Куда остальные 499 млрд. собираются деть?
    Не является ли это просто обычным планом электрификации и цифровизации?