На что действительно стоит смотреть в перегретом и шумном мире AI, если хочется не пропустить важные сдвиги? Редакция MIT Technology Review не первый год следит за тем, как развивается эта сфера, какие идеи в ней набирают вес и куда в целом смещается баланс сил. В этой подборке собраны темы, которые уже сейчас двигают индустрию вперёд и во многом задают рамку для того, что станет возможным дальше.

Сначала рассмотрим изменения внутри самой технологии: новые архитектуры, подходы к данным и конкурирующие экосистемы. Затем — поговорим про выход AI в реальные контуры: от разработки и науки до критически важных систем. И, наконец, обратим внимание на последствия этого масштабирования — от роста атак до давления со стороны общества и государства.

Куда движется сама технология

Данные для гуманоидных роботов

Компании, которые делают гуманоидных роботов, всё активнее собирают данные о человеческих движениях — от бытовых действий до точной работы руками. Логика здесь та же, что и у больших языковых моделей: если текстовые модели выросли на огромных массивах текстов, то робототехнику нужен сопоставимый по масштабу массив данных о том, как человек двигается и взаимодействует с физическим миром.

Проблема в том, что такие данные нельзя просто «скачать из интернета». Раньше разработчики пытались обходиться симуляциями, но они плохо воспроизводят реальные свойства среды вроде трения, упругости и мелких отклонений, из-за чего поведение роботов в жизни часто оказывалось нестабильным.

Сейчас ставка сместилась на сбор данных из реального мира. Для этого используются и сравнительно простые эксперименты с записью бытовых действий, и более масштабные схемы: тренировочные центры с VR-оборудованием и экзоскелетами, удалённое управление роботами, а также запись движений сотрудников и исполнителей на сдельной работе. На фоне роста инвестиций в гуманоидную робототехнику этот сбор данных быстро превращается в отдельную гонку.

Но главный вопрос пока остаётся открытым: можно ли вообще собрать такие массивы данных в нужном объёме и превратить их в работающую и окупаемую технологию. Теоретически подход выглядит логично, но практическая ценность каждого отдельного фрагмента данных и масштаб, необходимый для прорыва, пока неочевидны.

LLM следующего поколения

После взрывного роста популярности больших языковых моделей стало ясно: следующий этап — не отказ от LLM, а их развитие. Индустрия пытается сделать такие модели дешевле, экономичнее и устойчивее при работе с длинными и сложными задачами, которые требуют не одного ответа, а последовательного рассуждения в несколько шагов.

Один из ключевых векторов — снижение вычислительных затрат. Для этого используются разные подходы: например, архитектуры, где модель разбивается на несколько специализированных частей и в каждый момент работает только нужная из них. Параллельно идут эксперименты с альтернативами трансформерам и другими способами кодирования данных, которые могут сократить стоимость вычислений.

Второе важное направление — расширение и переосмысление контекстного окна, то есть объёма информации, который модель способна удерживать в работе. Современные модели уже умеют обрабатывать очень большие массивы текста, но по мере роста контекста повышается риск, что модель начнёт терять нить задачи. Поэтому разработчики ищут более надёжные схемы работы с длинным контекстом, в том числе через разбиение задачи на части и распределённую обработку. По сути, речь идёт уже не просто о «более крупной модели», а о новом способе организации её работы.

«Модели мира»

Одна из главных слабостей нынешнего AI — ненадёжность при работе с реальным миром. С текстом, кодом и другими цифровыми задачами системы справляются всё лучше, но как только речь заходит о физической среде, всё становится заметно сложнее. Именно поэтому всё больше исследователей делают ставку на так называемые модели мира — системы, которые не просто обрабатывают входные данные, а формируют внутреннее представление об окружающей среде и возможных последствиях действий.

Идея не новая, но в последние месяцы она снова вышла на первый план: этим направлением активно занимаются крупные лаборатории и исследовательские стартапы. Смысл в том, что одной статистики по текстам недостаточно, чтобы система вела себя устойчиво в нестандартной ситуации. Языковая модель может правдоподобно описывать мир, но это ещё не значит, что она действительно умеет в нём ориентироваться.

На практике это особенно важно для робототехники и автономных систем. Если AI сможет строить более точную внутреннюю модель среды, предсказывать последствия своих действий и корректировать поведение по ходу работы, это может заметно расширить его применимость за пределами экрана. Пока реальные применения в основном скромные — от виртуальных 3D-сред до навигации роботов, — но именно здесь многие исследователи видят один из ключевых шагов после эпохи LLM.

Китайская ставка на открытые модели

Пока американские AI-компании в основном держат сильные модели за API и монетизируют доступ, китайские лаборатории делают ставку на открытые веса. Для разработчиков это означает более низкий порог входа: модель можно развернуть на своей инфраструктуре, дообучить под задачу и не зависеть от коммерческих ограничений внешнего провайдера.

Эта стратегия особенно заметно усилилась после выхода DeepSeek R1: модель показала, что китайские игроки способны приблизиться к уровню ведущих американских систем, причём с меньшими затратами. Дальше по этому пути пошли и другие крупные участники — Alibaba, Moonshot, MiniMax и Z.ai. В результате Китай начал набирать не только технический вес, но и доверие разработчиков, которым нужны дешёвые и настраиваемые инструменты для внедрения AI в реальные продукты.

При этом у подхода есть и обратная сторона. Открытые китайские модели несут на себе ограничения местной системы модерации контента, а вокруг части лабораторий звучат претензии, связанные с заимствованием возможностей у западных моделей. Но в прикладном смысле тренд уже сложился: открытые модели делают рынок AI менее централизованным, а сама экосистема всё заметнее уходит от сценария, где правила игры задаёт только Кремниевая долина.

Куда AI выходит из чата в реальные процессы

Оркестрация агентов

Следующий этап после LLM — не просто «умные чаты», а системы, которые умеют выполнять действия. Для этого и нужны агенты: они работают с инструментами, интерфейсами и рабочими процессами, а не только генерируют текст в ответ на запрос.

Главный сдвиг сейчас — переход от одиночных агентов к многоагентным связкам. Вместо одного бота, который решает одну задачу, появляется группа агентов с разными ролями: один пишет код, другой тестирует, третий исправляет ошибки, четвёртый координирует процесс. Такой подход уже применяется в разработке, а теперь начинает выходить и в более широкий офисный контур — от работы с почтой и обращениями до управления внутренними процессами.

Идея выглядит сильной: многоагентные системы могут стать для интеллектуального труда тем, чем конвейер когда-то стал для производства. Но вместе с этим растут и риски. Если генеративные модели по-прежнему склонны ошибаться и действовать непредсказуемо, то при выходе в реальные инфраструктуры — корпоративные, финансовые, медицинские — цена таких ошибок становится заметно выше.

AI как соавтор научных исследований

AI уже стал рабочим инструментом в науке: помогает искать публикации, писать код, готовить черновики статей и разбирать данные. Но сейчас у крупных лабораторий и исследовательских групп цель амбициознее — превратить такие системы из вспомогательного инструмента в полноценного участника научной работы, способного предлагать гипотезы, планировать исследования и частично вести их почти без постоянного участия человека.

На практике это всё чаще реализуется через многоагентные системы, где разные модели отвечают за отдельные этапы: генерацию идей, отбор гипотез, проектирование экспериментов и интерпретацию результатов. В связке с роботизированными лабораториями такой подход уже позволяет запускать большие серии экспериментов и ускорять прикладные исследования, особенно в биологии и химии.

Но вместе с этим возникает и другой риск: AI хорошо работает там, где уже есть большие массивы данных и накопленная литература, а значит, может незаметно смещать фокус науки в сторону «удобных» и уже разработанных направлений. Поэтому вопрос здесь не только в мощности моделей, но и в том, как встроить их в научный процесс так, чтобы не сузить поле исследований и не потерять разнообразие научного поиска.

AI как советник в военном контуре

Военные давно используют AI для анализа разведданных, видео и других потоков информации, где нужно быстро отделять полезный сигнал от шума. Новое здесь не сама автоматизация, а переход к системам, которые не только обрабатывают данные, но и выдают рекомендации командирам в диалоговом формате.

Такие решения строятся уже на базе LLM. Их применяют для приоритизации целей, интерпретации разведывательной информации и поддержки решений в условиях дефицита времени. Причём речь идёт не об экспериментальных прототипах: подобные инструменты всё плотнее встраиваются в реальные военные процессы.

Проблема в том, что генеративные модели по своей природе нестабильны: могут давать разные ответы на один и тот же запрос, ошибаться и звучать убедительно даже там, где выводы слабо обоснованы. В гражданских задачах это неприятно, в военных — уже критично. Дополнительные риски связаны с непрозрачностью таких систем, зависимостью армии от технологических компаний и перспективой обучения моделей на закрытых военных данных.

Какие новые конфликты и издержки это создаёт

Киберугрозы

С появлением доступных генеративных моделей у злоумышленников резко расширился набор инструментов. AI уже используется для фишинговых писем, дипфейков, адаптации вредоносного ПО под обход детекторов, поиска уязвимостей и анализа украденных данных, чтобы быстрее находить в них то, что действительно представляет ценность.

Главный эффект здесь не в том, что AI мгновенно сделал атаки «умнее», а в том, что он сделал их дешевле, быстрее и массовее. Порог входа для атакующих снижается: многие операции, которые раньше требовали времени и квалификации, теперь автоматизируются или заметно упрощаются. Поэтому даже сравнительно примитивные атаки начинают представлять большую проблему за счёт объёма.

Защитная сторона тоже использует AI, и в ряде случаев именно он помогает фильтровать огромный поток подозрительной активности. Но общий баланс пока тревожный: по мере роста доступности таких инструментов нагрузка на системы защиты будет только увеличиваться, а базовая кибергигиена — обновления, сегментация сети, соблюдение протоколов безопасности — остаётся критически важной.

Дипфейки как инструмент давления

Опасения по поводу дипфейков давно перестали быть теорией. По мере развития генеративных моделей и роста доступности таких инструментов подделывать фото, видео и аудио стало заметно проще, дешевле и быстрее. Причём речь уже не только о заведомо фальшивом контенте, а о материалах, которые всё труднее отличить от реальных.

На практике дипфейки всё чаще используются во вредоносных сценариях: от несанкционированных интимных изображений до мошеннических схем и политической пропаганды. Последствия здесь выходят далеко за рамки отдельных инцидентов: подрывается доверие к изображениям как таковым, к публичным институтам и к самой возможности отличать реальное от сгенерированного.

Технические и правовые меры защиты обсуждаются, но у каждой из них есть ограничения. Фильтры можно обойти, открытые модели — использовать без встроенных ограничений, а регулирование работает только там, где его действительно применяют. Поэтому проблема, судя по всему, будет только нарастать — особенно в политически чувствительных и социально уязвимых сценариях.

Нарастающее сопротивление AI

На фоне ускоренного внедрения AI растёт и обратная реакция. Причём протест идёт не из одного лагеря: против выступают самые разные группы — от работников и профсоюзов до родителей, художников, религиозных сообществ и политических активистов с противоположными взглядами. Поводы тоже разные: рост энергопотребления дата-центров, сокращения под предлогом автоматизации, влияние чат-ботов на подростков, военное применение AI и использование чужого контента для обучения моделей.

Это сопротивление уже выходит за рамки отдельных заявлений. Возникают уличные протесты, публичные декларации, судебные иски и локальные регуляторные меры. В ряде случаев давление начинает влиять и на политику: вводятся ограничения для отдельных классов AI-сервисов, а планы по ослаблению защиты авторских прав сталкиваются с жёстким отпором.

Особенно заметен конфликт вокруг инфраструктуры: дата-центры всё чаще воспринимаются не как абстрактная «технологическая база», а как объекты, которые занимают землю, нагружают энергосистему и создают издержки для местных сообществ. В этом смысле анти-AI повестка становится не только культурной или этической, но и вполне материальной. И похоже, что дальше этот конфликт будет только усиливаться.

Источник: technologyreview

В продолжение темы — несколько практических гайдов, которые уже получили хороший отклик на Хабре:

Если хочется глубже погрузиться в эти темы, загляните в календарь бесплатных демо-уроков — там практикующие эксперты регулярно рассказывают про AI, разработку и смежные направления на примере реальных задач и кейсов.

Комментарии (0)