На протяжении более десятка лет компании придерживались одного, как им казалось, простого и надёжного правила: если ИИ-системы постоянно масштабировать, то они будут становиться всё умнее и умнее. Такая гипотеза возникла не на пустом месте. В 2017 году исследователи из Baidu доказали, что, алгоритмы ИИ обучаются быстрее, если задействовать большее количество данных и вычислительной мощности — независимо от того, была ли система разработана для распознавания изображений, текста или синтеза речи. Причём такие улучшения можно спрогнозировать с помощью математической модели.

Такая закономерность побудила ИИ‑компании вкладывать сотни миллионов в крупные вычислительные кластеры и массивы данных. Риск себя оправдал, и теперь вместо сырой машинной обработки текстов у нас есть чат‑боты, умело отвечающие на запросы пользователей.

Но сегодня эта, казалось бы, прописная истина «чем больше, тем лучше» подвергается сомнению.

В недавних отчётах, опубликованных Reuters и Bloomberg, делалось предположение о сокращении доходов, полученных от масштабирования систем ИИ. Ранее The Information сообщала о том, что в OpenAI усомнились во взятом курсе после того, как невыпущенная модель Orion не оправдала ожиданий во время внутреннего тестирования.

Что говорят технологические компании?

Однако многие ведущие компании ИИ, похоже, уверены, что прогресс идёт полным ходом. Так представитель Anthropic, разработчик популярного чат‑бота Claude, сообщил: «Мы не увидели никаких признаков отклонений от законов масштабирования». OpenAI от комментариев отказалась. В Google DeepMind также ничего не ответили. Однако после того, как новая версия Gemini (языковая модель от Google) опередила GPT-4o по производительности, генеральный директор компании Сундар Пичаи написал в X, что «стоит ждать большего».

Недавние выпуски ИИ‑моделей оставляют смешанное впечатление. Sonnet, модель среднего размера от Anthropic, обновили дважды в этом году. И теперь у неё больше возможностей, чем у более крупной языковой модели Opus, которая таких обновлений не получала. В июне компания заявила, что Opus будет обновлена «позже в этом году», но недавно Дарио Амодей, соучредитель и генеральный директор Anthropic, отказался назвать конкретные сроки. Google обновила свою малую модель Gemini Pro в феврале, но более крупная модель Gemini Ultra обновления ещё не получила. Недавно выпущенная OpenAI модель o1-preview превосходит GPT-4o в нескольких тестах, но в других тестах она уступает GPT-4o. Сообщается, что разработчики назвали o1-preview «думающей GPT-4o», что предполагает, что базовая модель по масштабу похожа на GPT-4.

Анализ текущей ситуации осложняется конкурирующими интересами со всех сторон. Так Илья Суцкевер, в прошлом главный научный сотрудник OpenAI и некогда ярый сторонник масштабирования, теперь утверждает, что рост производительности крупных моделей прекратился. Но такое мнение нельзя назвать объективным: его новый ИИ‑стартап, Safe Superintelligence Inc., запущенный в июне, располагал меньшим финансированием и вычислительной мощностью, чем у конкурентов. Разрушение гипотезы масштабирования помогло бы выровнять игровое поле.

У нас закончились данные?

«Замедление может быть вызвано ограничениями современных методов глубокого обучения или просто тем, что больше нет достаточного количества свежих данных», — говорит Гэри Маркус, ведущий эксперт ИИ. Подобная гипотеза получила распространение среди тех, кто пристально следит за развитием ИИ. Саша Луччони, руководитель отдела ИИ и климата в Hugging Face, говорит, что существуют ограничения на то, сколько информации можно извлечь из текста и изображений. В качестве примера она приводит тот факт, что люди с большей вероятностью неправильно истолкуют ваши намерения при обмене текстовыми сообщениями, чем при личном общении. «Я думаю, что то же самое происходит с языковыми моделями», — говорит она.

Нехватка данных особенно остро ощущается в таких областях, как логические построения и математика. «У нас просто нет такого количества качественных данных», — утверждает Эге Эрдил, старший научный сотрудник Epoch AI, некоммерческой организации, изучающей тенденции в разработке ИИ. Это не означает, что масштабирование ИИ прекратится, просто одного масштабирования может быть недостаточно. «На каждом уровне необходимо искать возможности для развития», — говорит он.

Это не первый раз, когда критики объявляют закон масштабирования мёртвым. «На каждом этапе реализации масштабирования всегда были споры и разногласия. Вот и последний не стал исключением: „У нас заканчиваются данные, или не хватает данных высокого качества, или модели не умеют рассуждать... Я видел, как это происходило достаточно много раз, и потому могу утверждать, что масштабирование, скорее всего, продолжится“, — утверждает. Эрдил.

«Хотя может быть и другая причина, почему новые модели не соответствуют ожиданиям», — говорит Хайме Севилья, директор Epoch AI. После общения с сотрудниками из OpenAI и Anthropic он пришел к выводу, что они изначально ожидали слишком многого. «Они ожидали, что ИИ сможет уже написать докторскую диссертацию, — говорит он. — Возможно, это кажется немного... разочаровывающим».

«Временное затишье не обязательно означает сильное замедление», — утверждает Севилья. Большие перерывы перед крупными прорывами случались и раннее. GPT-4, выпущенный всего полтора года назад, появился только почти через три года после GPT-3. «Мы склонны забывать, что GPT-3 по сравнению с GPT-4 сравним со стократным ростом в вычислениях. Если вы хотите создать что‑то, что в 100 раз производительнее, чем GPT-4, вам понадобится до миллиона графических процессоров», — говорит Севилья. Это больше, чем все существующие кластеры вместе взятые. Хотя он отмечает, что в этом году были предприняты согласованные усилия по созданию инфраструктуры ИИ, например, суперкомпьютер Илона Маска на 100 000 графических процессоров в Мемфисе — крупнейший в своем роде — который, как сообщается, был создан за три месяца.

Тем временем компании ИИ‑компании ищут другие методы повышения производительности уже обученных моделей. Новая модель o1 превосходит предыдущие в задачах рассуждения за счёт того, что ей даётся больше времени на «размышления».

Пока неизвестно, наблюдаем ли мы реальное замедление или просто очередную паузу перед скачком. «Не исключено, что сейчас мы просто вышли на плато, а в будущем достигнем чрезвычайно быстрого роста», — говорит Скотт Сингер, научный сотрудник Фонда Карнеги.

Комментарии (10)


  1. peterjohnsons
    14.12.2024 14:30

    А я вижу, что проблема в другом. Не в том, что заканчиваются данные, а в том, что для огромных моделей надо сильно увеличивать время обучения. Мне кажется, что ИИ компании привыкли к тому, что новые версии можно выпускать каждые несколько месяцев, но теперь эта модель развития перестает работать. Как отмечено в статье, между GPT-3 и GPT-4 прошел почти год, а для создания модели в 100 раз мощнее GPT-4 потребуется беспрецедентное количество вычислительных ресурсов.

    Это хорошо видно на примере последних релизов Anthropic: используя технологию grokking, компания смогла выпустить два обновления Claude 3.5 Sonnet именно потому, что это модель среднего размера. А Claude 3 Haiku, будучи еще меньше, смогла даже обогнать более крупную Opus по некоторым показателям - за то же время обучения на меньшей модели удается достичь более заметного прогресса в качестве.

    Решение этой проблемы лежит в области hardware - необходим переход на новое поколение ускорителей для обучения ИИ, которые позволят получать ожидаемый скачок в качестве для огромных моделей за приемлемое время. То есть текущее замедление - это в первую очередь ограничение существующего железа, что не всем очевидно. Компаниям пока приходится либо мириться с более длительными циклами разработки для крупных моделей, когда между релизами проходят не месяцы, а годы, либо фокусироваться на улучшении моделей меньшего размера. Это не значит, что прогресс остановился – просто он требует качественно новых технологических решений.

    Текущий уровень железа позволяет быстро улучшать средние и малые модели, но для масштабного скачка, нужен такой же скачок в оборудовании для обучения.


  1. anoneko
    14.12.2024 14:30

    Дело в луддитах, навязанные под видом морали и этики кандалы не способствуют взятию рекордов. Словно в средневековье клерикалы науку душат, так и сейчас моралфаги да позитивные (как тест на вич) дискриминаторы.


    1. xSinoptik
      14.12.2024 14:30

      Раскройте, пожалуйста, ваш тезис. Очень интересно, о ком вы


      1. Adinik
        14.12.2024 14:30

        Те кто ноют про нарушение авторских прав и использование конфиденциальных данных. Так называемые незаменимые креаклы, боятся, что они все таки заменимые и всячески вставляют палки в колеса. Сюда можно добавить и полит. корректных шизов.


        1. KEugene
          14.12.2024 14:30

          С одной стороны да. А с другой все зависит от того, как поставить процесс. Например, я загружаю фото на Shutterstock. Если картинка соответствует некоторым тркбованиям, то я получаю приглашение опубликовать ее в базе для обучения сетей. То есть, я знаю, что мое изобрадение не будет выставлено на продажу самостоятельно, а пойдет в большом пакете. Я из-за цены соглашаюсь. И сток не беспокоится об авторстве и пр. Разумно настроенный бизнес процесс решает большинство проблем. А попытка нае... извините, сэкономить может оказаться очень дорогой.


  1. Discivery
    14.12.2024 14:30

    А, может, дело в самом нейросетевом подходе?


    1. ideological
      14.12.2024 14:30

      Такого чувака в мемах выкидывают в окно)

      Согласен что сама архитектура сети не позволяет ждать чудес понимания.


  1. xSinoptik
    14.12.2024 14:30

    Мне кажется, что пора переходить на обучение в реальном мире, не только по текстам. Как это происходит у наших нейросетей. На сколько я понимаю, принципиальных трудностей тут нет? У человека требуется 30 лет для полноценного развития. Но это потому что мы спим, можем слушать одним комплектом ушей и одним комплектом глаз. Что если их будет тысячи?


  1. Green__Hat
    14.12.2024 14:30

    Как мне видится, развитие ИИ аршином общим не измерить.

    Подростковый период пройден, простая линейка уже не работает. Этап "вывалили, замерили, о, у Петьки больше!" - уходит в прошлое.


    Развитие может идти не в лоб и давать какие-либо критически важные преимущества через повышение качества выдачи.
    Вот пример, раньше такого не было.

    ________________________________________________________

    ________________________________________________________

    Как мне, пользователю, оценить на сколько процентов одна модель умнее другой, если одна генерит иллюстрации, а другая не умеет? Вполне товарного вида картинка.

    Второй пример, не так давно появилось красивое оформление формул

    ________________________________________________________

    ________________________________________________________

    Опять-таки безотносительно к правильности, форма выдачи для пользователя может оказаться критична, над этим работают, подвижки очень заметны. Попытка выдавить решение сразу в "Ворде" провалилась, Железный Дровосек файл сгенерил, но формулы накатал в строчку. Лиха беда начало. Полагаю в ближайшее время появится возможность науськивать ИИ прямо на файлы с выдачей туда же. Как оценить такую фичу, в каких процентах? Кинул пачку файлов, объяснил проблему, работай, железо! Магия.


    Другая магия, с которой активно борются, но тут я сам отчасти виноват, сказал, вот мол, имеется решение, известен результат, но он не получается, похоже где-то в данные закралась ошибка, поиграйся с цифрами, предполагая опечатку в тексте и посмотрим, что выйдет.

    Ответ готов, получите.

    ________________________________________________________

    ________________________________________________________

    Так и так, говорит, я перебрал кучу вариантов в вашей кудрявой формуле, жонглировал коэффициентами, похоже опечатка здесь - вот вам верный ответ. Я было запереживал по криптографии, это ж надо методом брутфорса по нечетким условиям .... Потом засомневался, да как тааак-тоооо?
    Мда, врёт как дышит, но такое не часто, по математике откровенная наглючая подгонка - первый раз вижу.

    Растет над собой, факт, процесс идёт и дело уже не в процентах.


  1. Guestishe
    14.12.2024 14:30

    А ведь если мы больше не увидим развития ИИ, это может означать что у кого-то появился сильный ИИ.


  1. LaRN
    14.12.2024 14:30

    А почему ИИ не пытается извлекать знания из того, что в нем уже есть? По идее, если заложить основы маиематики ИИ путем логических преобразований мог бы доказать теорему Ферма ну или еще что-то подобное. Но сейчас это больше похоже на индексацию большого объема информации, т.е. не ИИ, а умный поисковик.