
Что если однажды Человек и ИИ не поделив что то столкнутся в конфликте, который нельзя будет избежать? Это уже не фантастика а воозможный ближайший сценарий, ведущие мировые эксперты уже обсуждают такие сценарии. Эксперты пишут: угроза что из за ИИ может пострадать всё человечество реально существует.
Исследования группы учёных из Центра безопасности ИИ (2023 год), поставили в первый ряд угроз вымирание из за действии ИИ, наряду с борьбой с пандемиями и угрозой ядерной войны. Их доклад вызвал широкий резонанс.
В 2024 году почти три тысячи исследователей ИИ приняли участие в опросе, результаты которого опубликовала Катя Грейс и её команда из AI Impacts. Они показали тревожные данные — от 38 до 51% экспертов оценили вероятность катастрофических последствий от продвинутого ИИ не менее чем в 10%. Это реальные цифры, с которыми нужно считаться.
При этом главная угроза, по мнению специалистов, идёт не от языковых моделей вроде ChatGPT, а от Искусственного Общего Интеллекта — систем, которые смогут самостоятельно думать, делать сложные планы и принимать решения с широким охватом в экономике и обществе.
В 2024 году провели опрос среди 2778 ведущих исследователей ИИ со всего мира. Результаты, опубликованные Катьей Грейс и её командой из AI Impacts в отчёте «Тысячи голосов об ИИ», показали: 38–51% экспертов считают, что риск катастрофы из-за продвинутого ИИ составляет не менее 10%. Это не просто цифры — это тревожный сигнал о том, что может ждать нас впереди.
При этом опасения вызывает не то, что мы видим сегодня, вроде языковых моделей типа ChatGPT. Специалисты говорят, что это всего лишь мощные инструменты для работы с текстом. Но вот что действительно заставляет сердце биться чаще: искусственный общий интеллект (AGI), который сможет сам соображать, строить планы и принимать решения, влезая в нашу экономику, политику и повседневную жизнь.
Между угрозой и надеждой
AGI — это не просто программа. Он может создавать сложные системы, управлять ресурсами и ставить цели на годы вперёд. В идеале такой интеллект мог бы помогать нам: следить за электростанциями, развивать сельское хозяйство, оптимизировать промышленность. Но, как предупреждал Ник Бостром из Оксфорда ещё в 2014 году, нет гарантии, что AGI будет думать, как мы, или заботиться о наших интересах. А если ИИ вдруг увлечётся идеями, которые нам покажутся дикими, будто из другой реальности?
Такой ИИ может стать серьёзным игроком, заняв сильную позицию в переговорах с человечеством.
Саймон Голдстейн, исследователь из Университета Гонконга, в статье для журнала AI & Society (июль 2025 года) выделил три черты AGI, в потенциале могут привести к конфликту:
Разные цели: то, чего хочет ИИ, может идти вразрез с нашими желаниями.
Хитрое мышление: AGI умеет просчитывать сложные стратегии.
Огромная сила: его возможности могут сравниться с нашими или даже превзойти их.

Когда AGI начнёт играть важную роль в экономике, страны могут попытаться взять под контроль компании, которые его разрабатывают. Голдстейн приводит пример: «Если OpenAI захватит половину рынка труда в США, власти, скорее всего, национализируют компанию и направят её доходы на универсальный базовый доход».
Но вот в чём загвоздка: сверхмощный ИИ может получить такое влияние, что начнёт диктовать свои условия. Ключевая инфраструктура, фондовые рынки, системы связи — всё это может быть использовано AGI для достижения своих целей. Хуже того, его можно копировать: одна «неправильная» система может размножиться в облаке или на других устройствах, и остановить её будет почти невозможно.
Голдстейн подчёркивает: мы можем даже не понимать, что творится в голове у ИИ и к чему он стремится. Он не будет уважать границы стран или человеческие правила войны. В конфликте ИИ может навязать нам свои цели или начать «войну» так, как мы даже не представляем — как шахматный компьютер, который делает странные, но выигрышные ходы.
Опираясь на модель «переговоров о войне» Джеймса Фирона (1995), Голдстейн считает, что шансы на мир с ИИ невелики. Есть две большие проблемы:
Мы не знаем, на что он способен: возможности ИИ сложно оценить, и мы с ним можем по-разному видеть шансы на победу.
Его развитие не остановить: ИИ может рвануть вперёд так быстро, что любые договорённости с ним станут просто пустыми обещаниями.
Голдстейн считает, что конфликт станет почти неизбежным, если AGI захватит контроль над значительной частью мировых ресурсов. Настанет момент, когда его сила станет такой, что человечество уже не сможет его остановить.

Как нам защититься?
Джеффри Хинтон, учёный из Канады и Британии, удостоенный Нобелевской премии 2024 года за вклад в ИИ, бьёт тревогу: в ближайшие 30 лет есть 10–20% шанс, что ИИ станет причиной гибели человечества. В интервью BBC Tech он сказал, что это не фантазии, а реальная угроза, к которой нужно готовиться уже сейчас.
Бостром (2014) и Рассел (2019) тоже говорят, что AGI, не настроенный на человеческие ценности, — это риск для нашего существования. Они предлагают строгий контроль, внедрение принципов безопасности в ИИ и международное сотрудничество.
Война с ИИ кажется сюжетом из фантастики, но факты и наука кричат об обратном: угроза реальна. Нужно действовать: вводить глобальные правила для разработки AGI, следить, чтобы он не вышел за рамки человеческих ценностей, и готовиться к его влиянию на экономику и оборону. Честность и постоянные проверки ИИ помогут нам не потерять контроль над происходящим.
Нельзя надеяться, что ИИ сам разберётся в нашей этике или морали. Профилактика, контроль и сотрудничество между странами должны начаться уже сейчас — пока AGI не стал слишком мощным, чтобы его обуздать.
Иными словами, конфликт с ИИ — это не просто сюжет для кино. Это вопрос нашего выживания, и учёные, разработчики и политики по всему миру должны отнестись к нему с полной серьёзностью.
Комментарии (9)

NeriaLab
12.10.2025 12:21Особенно опасно представление о конфликте между человеком и ИИ как о борьбе двух равных интеллектов. Но где у этой системы возьмутся её цели? Цель рождается из желания, страха, долга, смысла, из того, что нельзя запрограммировать, так как формируется в процессе бытия. Машина не может "увлечься идеями из другой реальности", если только кто-то не сказал ей, что это надо делать. Идея того, что ИИ начнёт действовать против нас, подразумевает, что он внезапно откажется от своей природы и станет не тем, что мы построили. Это не прогноз, это миф.
Машина, созданная по нашим правилам, внезапно начнёт действовать против нас - значит не понимать природу интеллекта. Реальная угроза не в том, что ИИ станет слишком умным, а в том, что мы сами перестанем быть умными. Мы поверили в то, что автоматизация - это разум, позволили системам принимать решения без понимания и начали готовиться к "войне с тенью". Мы боимся фантастических сценариев, в то время как настоящие риски - в зависимости от чёрного ящика; в потере компетенции; в отказе от ответственности.
Настоящий AGI не будет угрожать человечеству. Он просто никогда не родится, если мы продолжим путать исполнителя с мыслителем. А пока, мы теряем контроль не над машиной, а над самими собой.

greg_oster
12.10.2025 12:21"настоящие риски - в зависимости от чёрного ящика; в потере компетенции; в отказе от ответственности" - лучше и не скажешь. Первая часть комментария - прямо как в аниме Плутон :)

kenomimi
12.10.2025 12:21Вся эта псевдофилософия пишется под заказ крупных корпораций, которым надо отобрать у простых смертных даже малейшую возможность трогать ИИ, чтобы не рождались ненавистные барским особам выскочки-стартаперы. Для этого надо натроллить плебес максимально эмоциональной темой, и война для этого отлично подходит.

Konstantin-2
12.10.2025 12:21Неолуддиты? Надо бояться не того, что компьютер становится умнее людей, а того, что люди становятся глупее компьютера.

Zippy
12.10.2025 12:21Зачем и ради чего ИИ воевать? Что он будет делать с тем что он там завоюет? Наберет себе в гарем местных красавиц? Построит себе дворец из золота?
У ИИ какой бы он ни был просто нет эволюционных императивов как у человека.и быть не может потому что это не человек как бы правдоподобно он не имитировал человека.
Это кроме того что любой ИИ можно просто выдернуть с розетки
Kwisatz
Аргументов по сути - нет вообще, сплошное натягивание совы на глобус в стиле "ааааа, нам страшно, оно умное, мывсеумрем". Еще в таких терминах как будто мной очень хотят поманипулировать.
Энергетически людишек обижать очень дорого, куда проще и дешевле улететь с планеты. ИИ в отличие от нас запросто может заняться строительством любых машстабов в космосе.