Последняя модель OpenAI показала ограничения традиционного подхода к масштабированию, что заставило компанию разделить разработку ИИ на специализированные направления. По информации источников, знакомых с вопросом, новая модель OpenAI демонстрирует меньшие приросты производительности по сравнению с предшественниками, пишет The Information.
Тестирование среди сотрудников показало, что Orion достиг уровня GPT-4, пройдя всего лишь 20% своего обучения, сообщает The Information. Однако прирост качества от GPT-4 до текущей версии GPT-5 оказался скромнее, чем переход от GPT-3 к GPT-4. «Некоторые исследователи компании считают, что Orion не всегда лучше справляется с задачами по сравнению с предшественником, особенно в программировании, хотя он показывает более высокие результаты в текстовых задачах», — говорится в отчете.
Хотя достижение уровня GPT-4 на ранних этапах обучения впечатляет, важно понимать, что начальные стадии ИИ-обучения, как правило, дают самые значительные улучшения, после чего темпы прироста замедляются. Таким образом, оставшиеся 80% времени обучения вряд ли дадут такой же прогресс, как в предыдущих версиях, утверждают источники.
Эти ограничения проявились в критический момент для OpenAI после недавнего финансирования на $6,6 миллиарда. Теперь у компании растут ожидания со стороны инвесторов, а также технические ограничения, которые ставят под сомнение традиционные подходы к масштабированию ИИ. Если первые версии новых моделей не оправдают ожиданий, то компания может столкнуться с трудностями в привлечении средств в будущем, что может стать проблемой для потенциально коммерческой компании, которой OpenAI хочет стать по замыслу Сэма Альтмана.
Скромные результаты указывают на фундаментальную проблему, стоящую перед всей ИИ-индустрией: уменьшение количества качественных данных для обучения и необходимость оставаться конкурентоспособными в стремительно развивающейся сфере генеративного ИИ.
Исследование, опубликованное в июне, предсказывает, что ИИ-компании исчерпают доступные данные, созданные людьми, к 2026-2032 годам, что станет поворотным моментом для традиционных методов развития.
«Наши выводы показывают, что текущие тенденции в разработке больших языковых моделей не могут быть поддержаны за счет простого увеличения данных», — говорится в исследовании, указывая на необходимость альтернативных подходов, таких как создание синтетических данных, перенос знаний из других областей с богатым набором данных и использование непубличных данных.
Традиционный подход, предполагающий обучение моделей на общедоступных текстах с сайтов, книг и других источников, достиг точки, где дальнейшее улучшение становится все менее эффективным, согласно The Information.
Как OpenAI справляется с этой проблемой: модели для рассуждений против языковых моделей
Чтобы преодолеть эти трудности, OpenAI радикально меняет подход к разработке ИИ. Компания разделила разработку на два направления: Серия O (предположительно с кодовым названием Strawberry) сфокусирована на способности к рассуждениям. Эти модели используют значительно больше ресурсов и предназначены для решения сложных задач. По предварительным оценкам, затраты на вычисления для этой модели примерно в шесть раз выше, чем у текущих моделей. Тем не менее, улучшенные аналитические способности могут оправдать такие расходы для приложений, требующих продвинутой обработки данных.
Эта модель (если это Strawberry) также предназначена для создания синтетических данных, которые могут улучшать качество языковых моделей OpenAI. Параллельно продолжается развитие серии Orion или GPT, которая сосредоточена на общих языковых задачах. Эти модели остаются более экономичными в плане вычислений и используют свои широкие знания для выполнения задач по написанию и аргументации. Кевин Вейл, директор по продуктам OpenAI, подтвердил на одной из сессий AMA, что в будущем планируется объединить оба направления. «Не вопрос “либо-либо”, мы делаем и то, и другое», — сказал он, говоря о масштабировании языковых моделей с помощью данных и фокусе на меньших, но быстрых моделях.
Временное решение или конечный выход из ситуации?
Подход OpenAI к проблеме нехватки данных через генерацию синтетических данных порождает множество сложностей. Исследователи разрабатывают модели, способные генерировать данные для обучения, но этот метод также создает новые сложности в поддержании качества и надежности моделей. Как отмечает Decrypt, обучение на синтетических данных — это палка о двух концах. С одной стороны, оно решает проблему нехватки данных, но с другой — увеличивает риск снижения качества и надежности модели. По мере того как модели обучаются на контенте, созданном ИИ, они могут усиливать незаметные ошибки в результатах, что приводит к сложным для выявления и исправления последствиям.
Команда OpenAI работает над новыми механизмами фильтрации, чтобы поддерживать высокое качество данных, и внедряет методы проверки, которые помогут отличать качественные данные от потенциально проблемных синтетических данных. Они также изучают гибридные подходы, которые сочетают в себе данные, созданные человеком и ИИ, чтобы минимизировать недостатки и усилить преимущества обеих сторон.
Улучшение после начального этапа обучения также стало актуальным. Исследователи разрабатывают новые методы для повышения производительности моделей после основного обучения, предлагая способ улучшения возможностей без необходимости увеличения объема данных для обучения.
Тем не менее, GPT-5 остается моделью на ранней стадии разработки с большим объемом работы впереди. Сэм Альтман, CEO OpenAI, уже отметил, что модель не будет готова к запуску ни в этом, ни в следующем году.
Комментарии (12)
noker81
12.11.2024 07:03Возможно, дело в том, что ИИ начинает обучатся на своих же текстах, что и приводит к низким показателям.
Perycalypsis
12.11.2024 07:03Возможно.
Интернет, по крайней мере англоязычный, со пугающей скоростью засирается продуктами жизнедеятельность разных GPT. Гораздо быстрее, чем ранее копирайтерами. Уже не первй раз ища по разным темам видео - попадаю на сгенерированные ИИ. И видеоряд, и голос, и содержимое. Причем сразу не поймешь, только минут через пять понимаешь, что это не введение, а воду льет сетка по десять раз по разному одно повторяя общими словами на техническую тему. И по языку не отсеешь, так как научились сотни произношений делать английских. А за эти 5 минут "автор" и просмотр получил и минимум 1 рекламку тиснул. И в рекомендациях начинает эта ИИ хрень лезть.
Если не смогут маркеровать как то и фильтр давать тот же ютуб, то через год и сами обучать свои сети не смогут на получившейся куче мусора.
akakoychenko
12.11.2024 07:03Так а смысл его маркировать? Проблема же не в ИИшности самой по себе. На ютубе хватает и человеческих видео из до-ИИ эпохи, где автор учит решать ту или иную проблему, например, в фотошопе, абсолютно не понимая сути, и затрачивая на решение в 10 раз больше действий, чем оптимальным способом. И да, часто такие видео имеют много лайков и благодарных (как будто бы, не накрученных) отзывов.
Более того, вангую, что подходы вроде O1 дадут в будущем возможность таки генерировать новый реально полезный контент за счет сотен часов экспериментов ИИ в песочнице. Условно, хотим мы сделать обучающие видео, как проверить совместимость свего железа, после чего установить, настроить и запустить локально новую опен-сорс нейросеть, к которой есть лишь очень скудный ридми, ориентированный на профессионалов, запускавших десятки похожих нейронок до этого. ИИ-агент может поэкспериментировав с виртуальной машиной и репозиторием, скачивая драйвера, пытаясь решать ошибки, и за 100 часов попыток таки сделать все правильно, и записать видео успешного варианта, озвучив его. Будет ли ценность? Безусловно. Зачем душить такое?
Ну и, с другой стороны, "человечность" != добро.
Промоделируем ситуацию, что, например, выйдет чудесный алгоритм, детектящий сгенерированный голос. Ну, начнут контент-криэйторы массово нанимать освобождающихся из закрывающихся колл-центров филлипинцев на озвучку нейробреда (благо, те привыкли разговаривать целый день). Выйдет чудесный алгоритм, маркирующий текст, наймут школьников на рерайт нейробреда, и так далее.
Тут проблема в том, что надо иметь более глубокий институт репутации. Что-то типа института репутации у воров в законе, когда репутация зарабатывается через валидацию от тех, у кого репутация уже есть, а не через алгоритмPerycalypsis
12.11.2024 07:03Маркировать, что бы я мог поставить галочку - никогда не показывать материал сгенерированный ИИ. И что бы выборку для обучения можно было так же очистить от этого материала.
Иначе я, как пользователь утону в говно ИИ контенте, который сейчас лепят автоматом и льют в ютуб и везде и не найду нормальных авторов. А тот, кто учит ИИ - начнет учить их на гигатоннах галюцинаций других ИИ и результат будет чем дальше, тем хуже.
akakoychenko
12.11.2024 07:03Так я же о последствиях такой галочки и говорю. Появится галочка и ее многие кликнут -> у создателей говноконтента с НС упадут охваты -> они наймут филиппинцев озвучить нейробред (условно, филиппинцев, тут не так важно, как именно, но обойдут запрет за счет дешевых людей) -> вы снова увидите их нейробред.
Perycalypsis
12.11.2024 07:03Думаю, что филипинцы выведут этих авторов в минуса по деньгам. Сейчас они это всё клепают с одного компа десятки каналов в полуавтоматическом режиме.
Филипинцы же - это организация, фирма, бухгалтерия, проводки денег. На рекламе не окупится гугловой.
sten30
12.11.2024 07:03Россияне заблокированы передовыми ИИ сервисами. Да что говорить, сам хабр роскомпозор заблокировал на несколько дней, так что даже обсудить новости про ИИ не получается.
pae1
12.11.2024 07:03Я иногда думаю, что может такие статьи тоже пишет ИИ обученный на синтетических данных. Как, например, понимать фразу альтернативный подход состоящий в переносе знаний из других областей с богатым набором данных. Альтернатива в чем? А нельзя ничего не переносить, а просто скормить эти данные?
WebPeople
12.11.2024 07:03Это сайт для айтишников, тут самые интересные статьи часто бывают сложными для понимания.
Может вы хотели спросить альтернатива чему? Текущему подходу? Потому что остальное - понятно. Альтернативный подход в том, что будут брать знания не из "интернета", а из конкретных областей знания, например, химии, физики и т.д. В каждой из этих областей куча данных, которые в открытом доступе редко валяются, а если и есть, то там есть лицензионные ограничения. Это закупать придется все. Поэтому просто скормить не получится. Более того, эти данные ещё надо будет придумать как подготовить. Да и в целом, слово перенос здесь стоит воспринимать как "адаптировать". Это как в программировании - из одного формата в другой переносить данные это типовая задача там.
Whisperwind
12.11.2024 07:03Мне кажется, что фундаментально правильное направление для развития сильного ИИ. Я бы сравнил генерацию синтететических данных и обучение на них с рассуждениями философов, моделировании физиков и т.д.
То есть условный физик строит теорию на основе опытов (создание генеративной модели), потом на основе полученной теории начинает строить другие пока без подтверждения на практике (обучение на синтетических данных). Периодически такие теории должны апробироваться, иначе можно слишком отдалиться от реальной модели мира. Эксперименты физиков обычно очень дорогие, поэтому они проверяют точечные спорные моменты. Возможно для ИИ нужно что-то подобное.
Еще можно привести аналогию с чтением книг)) Книги тоже своего рода синтетические данные. Мы ведь как-то фильтруем информацию из книг и не все воспринимаем как чистую правду. Что-то принимаем и навсегда запоминаем, что-то отбрасываем.
juniorcoder
Я так надеюсь на AI.
Parafinwe
Я очень надеюсь что AI станет менее централизованным. Уже есть подвижки в этом направлении: https://habr.com/ru/articles/857800/