Салют! Я Дима Юдин, технический лидер по развитию искусственного интеллекта. Знаете вот эти леденящие душу разговоры на кухне у кулера о сверхразумной машине и пророчестве Илона Маска: «AGI будет уже через пару лет, и всем хана»? 

Лично мне ближе Ян ЛеКун, который говорит, что «в ближайшие годы AGI не будет». Собственно, статья как раз о том, почему прогнозы Илона, на мой взгляд, похожи на трейлеры к фантастике, а ЛеКуна — на голос разума в шумном баре. Поделюсь мнением, к чему на самом деле стоит готовиться разработчикам, дата-сайентистам, ML-инженерам, CEO и другим любителям LLM.

Что за AGI и почему о нем говорят

К 2030 году AGI захватит планету. Верите?

Прогресс в направлении AGI

Кто такой ЛеКун и почему его стоит слушать

Требуемые принципы для AGI

Проблемы с AGI, которые пока никто не решил

Как использовать AI уже сегодня: сценарии

Как избежать синдрома AGI и использовать AI прагматично

Что за AGI и почему о нем говорят

Если очень просто, AGI (Artificial General Intelligence) — искусственный интеллект, который может делать все, что умеет человек, а иногда даже чуть лучше. Это не еще один ChatGPT или Copilot, который пишет код или генерирует картинки. Это машина, которая может обучаться, понимать шутки, объяснять законы физики бабушке и разбираться в мировой политике. 

Сегодняшние LLM, хоть и поражают масштабом, остаются специализированными: они строят тексты, но не способны к реальному моделированию мира, не обладают абстрактным мышлением, не могут планировать долгосрочно. AGI все это сможет объединить. Такая технология кардинально изменит подходы к науке, образованию, медицине и экономике. Одни эксперты видят в этом прорыв для решения глобальных вызовов, другие предупреждают о рисках для рынка труда и необходимости новых форм регулирования.

Кстати, размышления об AGI впервые появились еще у Алана Тьюринга, который придумал тест для «мыслящих машин». Тогда в научных кругах впервые активно заговорили о будущем с AI, предсказывая скорое появление электронных умов, сравнимых с человеческими, — исследователи всерьез верили, что AGI вот-вот станет реальностью. Но сроки все время отодвигались.

Сейчас же прогнозы выглядят вот так:  

  • Илон Маск (основатель xAI и Tesla): «AGI появится к 2029–2030 году, так что лучше заранее подумайте о бункере — на всякий случай». Так он говорил в 2023 г. на презентации xAI, подчеркивая, что AI может обогнать человечество быстрее, чем мы думаем. Хотя позже, в 2024 г., Маск скорректировал: «Возможно, уже в 2025-м или 2026-м». 

  • Сэм Альтман (CEO OpenAI): «AGI может случиться в ближайшее десятилетие, но пока рано об этом всерьез говорить — давайте просто работать дальше». В январе 2025 г. он написал в блоге, что они уже знают, как строить AGI, но подчеркнул: это не революция завтра, а градиентный сдвиг.

  • Демис Хассабис (CEO Google DeepMind): «Через 5–10 лет, если ничего не пойдет наперекосяк, но мы еще не на финише». Прогнозом он поделился в марте 2025 г. на брифинге в Лондоне, отметив, что текущие модели круты в отдельных задачах, но до настоящего AGI далеко.

  • Джеффри Хинтон («крестный отец AI», экс-Google): «От 5 до 20 лет — но я бы не ставил на это все деньги, времена слишком неопределенные».

  • Ян ЛеКун (Chief AI Scientist Meta): «AGI в ближайшие годы? Даже не мечтайте бросить работу и стать трейдером AGI — это миф». О том, что до AGI еще очень далеко, он неоднократно говорил в 2023–2025 гг., например, в декабре 2023 г. в Reddit-обсуждении.

На конференциях и форумах Илона Маска цитируют куда чаще, чем Яна ЛеКуна. Все просто: заявления Илона звучат громко, а ЛеКун предпочитает говорить по делу и без лишнего шума.

К 2030 году AGI захватит планету. Верите?

Заявления Илона Маска — всегда спектакль с открытой датой выхода. Он регулярно утверждает, что AGI уже «на пороге». Вот только если посчитать, сколько раз он это говорил за последнее десятилетие, получается график, похожий на биткоин после твита Илона.

Утверждения о скором превосходстве AGI — слабый инструмент прогнозирования. 

Публичные заявления предпринимателей и топ-менеджеров полезны для понимания позиционирования компаний и ожиданий рынка, но мало что говорят о темпе решаемых инженерных задач. Для оценки реального прогресса важны операционализированные критерии: перенос навыков между разнородными задачами без дообучения на каждую из них, устойчивость качества при росте сложности входных данных, воспроизводимость результатов на закрытых тестовых наборах, стоимость и доступность вычислений, данных и контроля над безопасностью развертываний. 

Исторически горизонты вот-вот смещались из-за двух систематических ошибок: 

  • подмены локальных достижений (узкие модели, прототипы, эффект «демо») тезисом об «общности»; 

  • игнорирования экономики масштабирования: по мере роста моделей становится критичнее не только сырье в виде данных и FLOPs, но и инженерия надежности, защита весов, процессы верификации и аудит поведения. 

В результате календарные формулы вроде «через пять лет» описывают скорее пожелания, чем траекторию, подтвержденную метриками. Корректнее обсуждать не верю-не верю, а диапазон сценариев и их допущения. 

При таком подходе вопрос, обгонит ли AGI человека и когда, распадается на ряд проверяемых гипотез: 

  • насколько быстро автоматизируется R&D в самой AI-индустрии;

  • какова реальная цена данных (включая синтетические) с учетом требований к качеству;

  • где находятся узкие места вычисления, память, ввод-вывод, безопасность, энергоемкость;

  • что происходит с управляемостью систем по мере усложнения их архитектур и распределенности агентов. 

Полезным примером сценарного анализа здесь выступает проект AI-2027. Авторы не предсказывают дату, а строят количественно сформулированный сценарий, как могла бы развиваться петля «AI улучшает AI», какие промежуточные вехи должны наблюдаться (автономизация инженерных задач, ускорение экспериментов, генерация и фильтрация синтетических данных, рост роли внутренних агентных сред), какие риски становятся доминирующими по мере роста возможностей (утечки весов, несоответствие спецификации, ухудшение наблюдаемости внутренних состояний) и какие развилки возможны на уровне политики и безопасности. Материал удобен тем, что его предпосылки изложены явно, а значит, их можно критиковать и проверять по мере поступления эмпирики. 

Почему Маску верят

  • Он действительно крутой инженер, умеет запускать ракеты, продавать электромобили. Кажется, что такой человек не может ошибаться.

  • Его сценарии катастроф пугают и захватывают, а страх всегда продается лучше статистики.

  • Слова об «экзистенциальной угрозе» заставляют даже далеких от IT людей искать кнопку «выключить все».

Что он упускает

  • Современные LLM и мультимодальные модели по-прежнему крайне ограничены. 

  • Сильнейшие AI сейчас — это огромные статистические попугаи, запертые в облаках, а не новые Шерлоки Холмсы.

Прогресс в направлении AGI

В 2025 году ведущие AI-лаборатории OpenAI, xAI, Google DeepMind активно работают над искусственным общим интеллектом (AGI). Полное AGI еще не достигнуто, но есть успехи в масштабировании вычислений, улучшении моделей и создании автономных агентов. Вот ключевые направления:

Масштабирование вычислений

OpenAI и xAI инвестируют в инфраструктуру для AGI. OpenAI планирует крупные дата-центры и сотрудничает с партнерами для ускорения вычислений, а xAI фокусируется на Grok 5, которая, по прогнозам, приблизится к AGI-уровню. Эксперты оценивают 50% шанс ключевых AGI-милестонов к 2028 году. Источник: MIT Technology Review, август 2025.

Улучшение моделей

Модели 2025 года, такие как Grok 4 (xAI) и o3 (OpenAI), достигают PhD-уровня в академических задачах. Grok 4 лидирует в бенчмарках, включая ARC-AGI-2. Google DeepMind работает над мировыми моделями для симуляции реальности, прогнозируя AGI к 2030 году. Источник: Artificial Analysis Leaderboards.

Автономные агенты

AI-агенты становятся более самостоятельными. OpenAI’s ChatGPT-агенты выполняют сложные задачи, вызывая ощущение приближения к AGI. Источник: X post by Sam Altman, июль 2025.

Эти усилия показывают, что AGI становится ближе, но этические вопросы и риски остаются предметом обсуждения. Источник: LessWrong, сентябрь 2025.

Кто такой ЛеКун и почему его стоит слушать

Ян ЛеКун — научный руководитель AI-направления в Meta (организация признана экстремистской и запрещена на территории России), профессор NYU и один из «отцов» глубинного обучения. Он регулярно выступает с тезисом: «Современные языковые модели продвинутые, но даже не дошли до уровня кота. Не спешите с апокалипсисом».

Его главные аргументы:

  • Современные LLM (ChatGPT, Gemini, Claude и даже самые свежие облачные решения) не умеют ни строить мысленный образ мира, ни моделировать его.

  • У моделей нет базовых моторных, сенсорных и когнитивных способностей. Попробуйте попросить ChatGPT догнать мышь или хотя бы понять, что вода мокрая, получите текст, а не реальное действие.

  • Генерация картинок, видео и кода от AI — это продвинутая статистика, а не мышление в человеческом смысле.

  • Для AGI нужны новые принципы моделирования — «модель мира», которой нет ни у одной современной LLM.

Ключевые ограничения больших языковых моделей (LLM):

  • Неудобство понимания физического мира: LLM не обладают присущим пониманием физических законов и того, как объекты взаимодействуют в реальном мире.

  • Ограниченная постоянная память: эти модели борются с сохранением и запоминанием информации в более длительных контекстах или временных рамках.

  • Неадекватные возможности рассуждения: LLM имеют ограниченную способность выполнять логические рассуждения или решать проблемы, которые требуют большего, чем распознавание образов.

  • Отсутствие способности к планированию: существует значительный пробел в способности этих моделей планировать последовательность действий для достижения желаемого результата на основе понимания мира.

Несмотря на мастерство LLM в создании последовательного и контекстуально соответствующего текста, они падают.

По мнению ЛеКуна, AGI появится не благодаря гигантским LLM, а за счет синтеза новых подходов:

Символьное и вероятностное моделирование. Символьное моделирование использует логику и правила (напр��мер, экспертные системы), где AI оперирует явными символами и их связями. Вероятностное моделирование, напротив, работает с неопределенностью через статистику, как в современных нейросетях. Гибридный подход сочетает их, чтобы AI мог одновременно логически рассуждать и обучаться на больших данных. xAI с моделью Grok 4 интегрирует вероятностное обучение (continuous reinforcement learning) и символьные методы, показывая прогресс на бенчмарке ARC-AGI-2 (15.9%). OpenAI экспериментирует с гибридными подходами в модели o3, достигающей уровня PhD в академических задачах.

Сенсорно-моторные интерфейсы. Это технологии, позволяющие AI взаимодействовать с физическим миром через сенсоры (камеры, микрофоны) и актуаторы (роботизированные механизмы). Они имитируют человеческое восприятие и движение, что важно для AGI, способного действовать в реальной среде. Google DeepMind разрабатывает интерфейсы для робототехники, улучшая взаимодействие AI с физическими объектами. xAI тестирует Grok в симуляциях с сенсорными данными, приближая его к реальным сценариям. 

Построение модели мира. «Модель мира» — это внутренняя репрезентация AI, которая позволяет ему понимать и предсказывать события в реальном мире, включая причинно-следственные связи и контекст. Это ключ к AGI, способному обобщать знания, как человек. Google DeepMind продвигает «мировые модели» через симуляции, основанные на игровых движках, таких как Kaggle Game Arena. OpenAI и xAI работают над моделями, которые предсказывают сложные сценарии, улучшая планирование задач.

AGI — это не очередной GPT-n, а архитектура, способная сама планировать, формировать гипотезы, экспериментировать и взаимодействовать с миром физически.

Все это требует новых принципов, которых сегодня нет ни в одном open source стеке ни в облачных, ни в локальных решениях. 

Требуемые принципы для AGI

Адаптивная архитектура. AGI должна динамически перестраивать алгоритмы, сочетая логическое рассуждение с обучением на данных, чтобы решать задачи без заранее заданных сценариев. Текущие системы, даже самые продвинутые, ограничены статическими моделями. Источник: AI Alignment Forum, сентябрь 2025.

Интерактивное обучение в реальном мире. AGI требует систем, способных учиться через прямое взаимодействие с окружающей средой, используя сенсоры и актуаторы для адаптации в реальном времени. Современные решения зависят от симуляций или статических датасетов. Источник: MIT Technology Review, август 2025.

Универсальное представление знаний. Для AGI нужна способность формировать целостное понимание мира, интегрируя данные из разных доменов и предсказывая сложные сценарии. Текущие модели ограничены узкими задачами. Источник: LessWrong, сентябрь 2025.

Самостоятельное целеполагание. AGI должна сама определять цели и проверять гипотезы, корректируя поведение без внешнего вмешательства. Сегодняшние системы требуют человеческого контроля для постановки задач. Источник: X post by Demis Hassabis, июль 2025.

Эти принципы подчеркивают разрыв между существующими технологиями и требованиями AGI, требуя новых подходов, которых пока нет.

Проблемы с AGI, которые пока никто не решил

Контекст и память

Любая большая языковая модель может держать в голове ограниченное количество текста — это ее «контекстное окно». Все, что выходит за его пределы, стирается. Если дать LLM длинный диалог, а потом спросить про детали из его начала, с вероятностью 99% она запутается или сделает вид, что ничего не было. Поэтому длинные рассуждения, планы, последовательные цепочки задач для моделей — по-прежнему сложный квест: они не умеют по-настоящему «запоминать».

Примеры:

  • Если задать модели вроде Grok 4 (xAI) или o3 (OpenAI) сложный диалог на 100 000 токенов и спросить о деталях из первых 10%, она часто выдает некорректные ответы или игнорирует ранний контекст, так как приоритет отдается последним данным в окне. Например, в тесте на многошаговое планирование (METR’s task suite) модели не смогли удержать последовательность из 20+ шагов без потери связности.

  • При попытке создать план на месяц с ежедневными задачами модели вроде ChatGPT теряют детали начальных условий (например, ресурсные ограничения), что приводит к несогласованным планам.

  • В экспериментах с ARC-AGI-2 модели показали улучшение (xAI’s Grok 4 — 15.9%), но все еще не могут сохранять контекст для задач, требующих длительной памяти, таких как построение сложных гипотез на основе разрозненных данных. Источник: LessWrong, сентябрь 2025.

Текущие архитектуры не способны к настоящей долговременной памяти, необходимой для AGI. Требуются новые подходы к обработке и хранению информации.

Мир за пределами текста

Генерация текста — это не мышление. Модель может блестяще «притворяться», что понимает, что такое зима, левый берег реки или как сварить борщ, но она не видела снега, не пробовала еду и вообще не обладает никаким опытом вне тренировочных данных. Их «знания» заканчиваются там, где заканчивается текстовая выборка. Это создает разрыв между их способностью имитировать понимание и настоящим осознанием, которое требуется для AGI. 

Например, в экспериментах с задачами, требующими физического контекста (например, описание механики падения объекта с учетом реальных условий), модели часто ошибаются, так как не могут опираться на опыт вне тренировочных текстов. В тестах на симуляцию реальных сценариев, таких как управление роботом в незнакомой среде (Google DeepMind’s robotics trials, 2025), модели не смогли адаптироваться к неожиданным изменениям, например, к новым препятствиям, из-за отсутствия сенсорного понимания. 

Даже при использовании мультимодальных данных (например, изображений) модели интерпретируют их через текстовые описания, а не через прямое восприятие, что ограничивает их способность к обобщению в реальных условиях. Нужны новые архитектуры, способные интегрировать сенсорный опыт и формировать целостное представление о мире, выходящее за рамки текстовой выборки.

Мотивация и цели

Текущие модели AI, включая самые продвинутые, такие как Grok 4 (xAI) или o3, GPT-5 (OpenAI), работают реактивно, отвечая на вводные данные без собственных желаний или долгосрочных целей. Они не могут самостоятельно определять приоритеты, инициировать задачи или корректировать поведение без внешних инструкций. AGI же должен формировать внутренние цели, оценивать их значимость и адаптивно действовать в условиях неопределенности.

Контекст и сложность

  1. Отсутствие внутренней ценностной функции. Модели оптимизированы для краткосрочных задач (например, точность ответа), но не могут сами решать, что важно в долгосрочной перспективе. Например, в тестах на многоагентное взаимодействие модели не инициируют действия без подсказок, даже если это логично (Artificial Analysis, 2025).

  2. Неспособность к долгосрочному планированию. Модели теряются при необходимости поддерживать последовательный план на длительный срок. Например, если попросить разработать стратегию стартапа с учетом меняющихся условий, они не могут самостоятельно переоценивать приоритеты.

  3. Отсутствие инициативы. В экспериментах с ARC-AGI-2 модели решают задачи в заданных рамках, но не предлагают новые подходы или гипотезы без внешнего ввода.

  4. Этические вызовы. Создание мотивации для AGI требует безопасных механизмов, чтобы цели AI не конфликтовали с человеческими ценностями, что усложняет разработку (оценка p(x-risk) 10–20%). 

  5. Специфические примеры. В тестах METR’s task suite (2025) модели, такие как o3, не смогли переформулировать задачу при изменении условий, например, при добавлении новых ограничений в многошаговом сценарии.

    Grok 4 в симуляциях с continuous RL показывает базовое планирование, но не может самостоятельно выбирать приоритетные задачи в сложных проектах с множеством переменных.

    В Kaggle Game Arena модели DeepMind реагируют на игровые события, но не инициируют новые стратегии без внешних подсказок.

    При попытке моделировать научное исследование (например, постановка гипотез для физической задачи) модели не могут самостоятельно запросить дополнительные данные или предложить эксперимент, ограничиваясь ответами на заданные вопросы. 

  6. Обучение на опыте. Люди учатся на ошибках, адаптируются под обстоятельства, делают выводы на основе реального опыта и последствий. Языковые модели такого не умеют: они учатся только на огромных массивах готовых текстов и не могут экспериментировать или, например, узнать что-то новое в реальном времени. Они не делают ошибок в привычном нам смысле. Если что-то «пошло не так», модель просто попробует еще раз, но осознать и исправить ошибку так, как это делает человек, она не сможет.

Как использовать AI уже сегодня: сценарии

Если вы руководитель проекта, владелец бизнеса или архитектор IT, вам не обязательно ждать наступления AGI, чтобы вырваться вперед. Ниже — конкретные сценарии, основанные на типичных проблемах специалистов, с примерами и релевантными решениями.

  • Обработка запросов в поддержке

Задача. Разработчики тратят часы на ответы на однотипные вопрос�� от команды или пользователей, например, о дебаггинге кода или документации, что отвлекает от основной работы.

Решение с AI. Интеграция LLM с внутренними базами знаний через системы Retrieval-Augmented Generation (RAG) позволяет создать чат-бота, который обрабатывает 70–90% типовых запросов. Например, бот анализирует логи, находит ошибки и предлагает фиксы, сокращая время поддержки с часов до минут. В реальном проекте это помогло команде ускорить дебаггинг микросервисов, опираясь на исторические данные. Источник: LessWrong, сентябрь 2025.

  • Поиск аномалий в больших данных

Задача. Ручной анализ логов, метрик или транзакций отнимает время, особенно в мультиязычных датасетах или реал-тайм потоках.

Решение с AI. Используйте интерактивные среды разработки, такие как Jupyter-подобные notebooks, для создания моделей, выявляющих аномалии. Например, fine-tuning модели (Mistral или DeepSeek) на транзакционных данных позволяет находить фрод с точностью 95%, автоматически анализируя реал-тайм потоки. Это решает проблему ручного парсинга логов в DevOps.

  • Генерация кода и документации

Задача. Написание отчетов, документации или кода требует повторяющихся действий, замедляя итерации. 

Решение с AI. Генеративные модели создают код, отчеты или презентации по промптам. Например, модель может парсить PDF-документы, извлекать данные и генерировать SQL-запросы для отчета, сокращая подготовку релиза с дней до часов. В проекте по автоматизации документации это позволило сократить время на обработку контрактов на 70%.

  • Онбординг и апскилл команды

Задача. Стандартные курсы по ML или новым технологиям не учитывают индивидуальные пробелы, замедляя обучение разработчиков.

Решение с AI. Персонализированные курсы через AI-агенты, анализирующие код-ревью или тесты, помогают выявить слабые места. Например, модель предлагает упражнения по оптимизации PyTorch, генерируя задачи и фидбек, что ускоряет онбординг на 50%. В реальной практике это помогло команде освоить новые фреймворки за две недели вместо месяца.

  • Масштабирование моделей

Задача. Перевод ML-прототипов в продакшн тормозит из-за проблем с ресурсами и мониторингом.

Решение с AI. PaaS-платформы с автоскейлингом GPU позволяют развертывать модели с мониторингом в реальном времени. Например, для компьютерного зрения можно запустить инференс на мультимодальной модели, тестируя версии через A/B-тесты, что решает проблему оверлоада серверов и ускоряет деплой.

  • Интеграция в сложные workflows

Задача. Автоматизация многошаговых процессов, таких как CI/CD с AI-проверками, требует кастомных скриптов, увеличивая время деплоя.

Решение с AI. Мультиагентные системы позволяют распределять задачи: один агент проверяет код, другой тестирует, третий деплоит. Например, при автоматизации PR модель анализирует изменения и предлагает оптимизации, интегрируясь с GitHub через API, что сокращает цикл ревью на 30%.

Эти сценарии показывают, как GenAI решает технические боли разработчиков уже сегодня, используя PaaS-инструменты для быстрого внедрения.

Как избежать синдрома AGI и использовать AI прагматично

Синдром AGI — это ловушка, в которую попадают компании и разработчики, зацикливаясь на ожидании искусственного общего интеллекта (AGI) и упуская возможности текущих технологий. Вместо мечтаний о «мыслящих машинах» фокус должен быть на практическом применении GenAI и ML уже сегодня. 

В 2025 году прогресс в автоматизации, новых архитектурах и инструментах открывает конкретные пути для повышения эффективности. Вот как не стать жертвой «синдрома AGI» и внедрить AI с реальной пользой, с конкретными рекомендациями и источниками.

1. Отслеживайте прогресс через проверенные источники

Ожидание AGI отвлекает от реальных достижений, таких как новые архитектуры или инструменты автоматизации. Регулярно изучайте отчеты и бенчмарки, чтобы понимать, какие технологии уже работают. Например, следите за лидербордами Artificial Analysis для оценки моделей по производительности в задачах, таких как ARC-AGI-2. Подпишитесь на профильные ресурсы, такие как MIT Technology Review или ArXiv, чтобы получать свежие данные об архитектурах (например, hybrid reasoning). Используйте RSS-ленты ArXiv (разделы cs.AI, cs.LG) и проверяйте ежемесячные отчеты LessWrong. 

2. Стройте пайплайны для работы с данными

Внедрите инструменты для работы с данными, такие как Retrieval-Augmented Generation (RAG) для интеграции корпоративных баз знаний с LLM. Например, настройте RAG для анализа логов, чтобы находить паттерны ошибок в реальном времени. Или используйте Jupyter-подобные notebooks для быстрого прототипирования аналитики. Это позволяет прогнозировать сбои или оптимизировать ресурсы, как в случае с выявлением аномалий в DevOps-метриках. Начните с малого: подключите open source модель (например, Mistral) к вашим данным через API. Читайте кейсы на профильных платформах, таких как Towards Data Science, и участвуйте в хакатонах Kaggle для практики.

3. Внедряйте доступные инструменты для автоматизации

Автоматизируйте рутину с помощью мультиагентных систем. Например, настройте агента для проверки кода в CI/CD, который анализирует PR и предлагает оптимизации, сокращая ревью на 30%. Или используйте GenAI для генерации документации: модель может создавать README или API-спеки на основе кода за минуты. Попробуйте open source инструменты, такие как LangChain, для быстрого старта. Это прагматичный подход, дающий результат уже сегодня. Следите за обновлениями инструментов на GitHub (например, LangChain, Hugging Face) и тестируйте их в песочницах.

4. Инвестируйте в культуру экспериментов

Команды часто боятся внедрять AI из-за нехватки навыков или страха ошибок. Создайте среду для экспериментов: выделите время на хакатоны или PoC (proof-of-concept) с использованием PaaS-платформ. Например, протестируйте fine-tuning модели для задачи анализа клиентских запросов — это занимает 1–2 дня с современными инструментами. Проводите регулярные митапы, где разработчики делятся результатами экспериментов, например, по интеграции LLM в CI/CD. Это повышает гибкость и ускоряет обучение команды.

5. Сосредоточьтесь на этике и безопасности

Неправильное использование AI может привести к утечкам данных или необоснованным решениям, подрывая доверие. Внедряйте AI с учетом конфиденциальности: используйте on-premise или изолированные облачные решения для обработки чувствительных данных. Например, настройте локальный инференс модели для анализа клиентских данных, чтобы избежать передачи в публичные облака. Проверяйте модели на bias (например, с помощью Fairness Indicators от TensorFlow) и документируйте решения для прозрачности. Это сохраняет доверие клиентов и минимизирует риски.

А своим мнением и прогнозами об AGI можно поделиться в комментариях.

Комментарии (4)


  1. Ard33
    31.10.2025 10:32

    ЛеКун не прав. с.м. результаты ИИ от Мета.


    1. Flokis_guy
      31.10.2025 10:32

      Ну так по их результатам он и прав:)


  1. NeriaLab
    31.10.2025 10:32

    Помимо ЛеКун, об этом неоднократно говорил и Гэри Маркус, начиная с 1990+ годов. Советую почитать: "Artificial Intelligence Is Stuck. Here’s How to Move It Forward" (2017)

    "Интеллект - это не успешное выполнение задачи, а способность к абстракции, обобщению, рассуждению, пониманию контекста"

    А что недавно заявил Эндрю Карпаты?

    "Они не думают, а лишь копируют поведение, подстраиваясь под ожидания."

    Сейчас не нужно размышлять об AGI, так это будет похоже на такое: "А давайте поразмышляем по поводу того, когда люди колонизируют Марс". На данном этапе развития человечества, оно не способно ни на то, ни на другое


  1. YuryZakharov
    31.10.2025 10:32

    А можно пару определений, что такое

    мышление в человеческом смысле

    и

    настоящим осознанием

    Прежде, чем достигнуть чего-то, хотелось бы понять, а чего же, собственно, мы достигаем?