Когда человек станет лишним

Представьте будущее, где искусственный интеллект решил большинство существующих проблем человечества. Излечены почти все болезни, голод побеждён, производство автоматизировано, а базовые потребности каждого человека удовлетворены. Звучит как утопия?

Но есть нюанс.

В этом же будущем каждое ваше действие отслеживается и анализируется AI-системами. Каждое сообщение, каждый запрос, каждый взгляд на камеру — всё становится частью вашего цифрового профиля. Любое отклонение от "нормы" мгновенно фиксируется и корректируется. Вы больше не представляете ценности как работник — AI справляется лучше. Вы больше не нужны как избиратель — AI точнее моделирует общественные потребности. Ваше мнение больше не важно — AI эффективнее управляет обществом.

Фантастика? Не совсем. В Синьцзяне уже сегодня AI-системы отслеживают каждый шаг уйгуров: от покупки молитвенного коврика до общения в мессенджерах. Камеры с распознаванием лиц на каждом углу. Обязательные приложения на телефонах ищут "идеологические вирусы". Тотальный контроль уже здесь, просто пока в локальном масштабе.

А теперь представьте AI радикально более мощный, чем существующие системы. AI, который превосходит нобелевских лауреатов в их областях. Который может не просто отвечать на вопросы, но автономно работать неделями над сложными задачами. Который может управлять реальным оборудованием, проводить эксперименты, создавать новые технологии. И таких систем — миллионы, работающих в сотни раз быстрее человека. Это то, что CEO Anthropic Дарио Амодей назвал в своей недавней статье Powerful AI, и многие считают, что он появится уже в ближайшие годы.

Исторически права и свободы индивида основывались на простом факте: крупные структуры (государства, корпорации) нуждались в людях. Как в рабочей силе, как в солдатах, как в налогоплательщиках, как в источнике легитимности власти. Что произойдёт, когда эта потребность исчезнет? Когда искусственный интеллект сможет заменить человека практически во всём?

В этой статье мы рассмотрим, как развитие Powerful AI может разрушить традиционные механизмы защиты прав личности, и почему привычные решения вроде базового дохода или демократического контроля могут оказаться иллюзорными. А главное — есть ли способ избежать цифрового тоталитаризма в мире, где человек больше не является необходимым элементом системы.

Как человек стал ценным

Сегодня права личности кажутся чем-то естественным. Право на жизнь, на свободу, на собственное мнение — это базовые ценности современного мира. Но так было не всегда. Путь к этим правам — это история того, как человек становился всё более ценным для системы.

В средневековой Европе крестьянин был просто частью земли, которой владел феодал. Но развитие городов создало новую реальность: ремесленник, в отличие от крестьянина, мог уйти со своими навыками в другой город. Впервые человеческий капитал стал мобильным, а значит — ценным. Города конкурировали за мастеров, давали им привилегии. Так родились первые свободы.

Промышленная революция сделала следующий шаг: массовое производство требовало массового работника. Но машины требовали грамотного обслуживания, а грамотный рабочий мог читать не только инструкции, но и политические памфлеты. Более того, концентрация рабочих на фабриках создала новую силу — профсоюзы. Внезапно оказалось, что игнорировать мнение масс стало опасно.

Наконец, переход к экономике знаний сделал человеческий капитал ключевым фактором производства. Программист, учёный, инженер — их невозможно заменить просто "рабочими руками". Креативность, способность к инновациям, умение решать нестандартные задачи стали критически важны для развития.

Каждый из этих этапов усиливал позиции индивида в его отношениях с властью. Человек стал слишком ценен, чтобы его можно было просто игнорировать. Даже самые жёсткие режимы XX века вынуждены были считаться с необходимостью получить хотя бы формальную поддержку населения.

Но что произойдёт, когда искусственный интеллект сможет заменить и ремесленника, и рабочего, и солдата, и программиста? Когда креативность и инновации станут прерогативой AI? Впервые в истории человечество сталкивается с перспективой тотальной потери своей инструментальной ценности для системы.

Почему Powerful AI — это совсем другое

Важно понимать: Powerful AI — это не просто "GPT, но помощнее". Это качественный скачок, сравнимый с разницей между калькулятором и современным компьютером. Его отличие от существующих систем носит не количественный, а принципиальный характер.

Современные AI-системы — это по сути продвинутые инструменты, отвечающие на запросы пользователя. Они живут в ограниченном мире текста и изображений, требуют постоянного человеческого руководства, часто ошибаются. Powerful AI преодолевает все эти ограничения. Он способен самостоятельно планировать и выполнять сложные многоэтапные задачи: от полноценной разработки программных продуктов до проведения научных исследований, от выдвижения гипотез до публикации результатов.

Но главное — это его способность напрямую взаимодействовать с физическим миром. Представьте систему, которая не просто проектирует новое устройство, а управляет оборудованием для его создания, тестирует прототип, анализирует результаты и вносит улучшения. Это уже не просто "мозг" — это мозг с руками, способный воплощать свои решения в реальность.

Принципиально важна и возможность масштабирования. Миллионы копий такого AI, работающих в сотни раз быстрее человека, могут параллельно исследовать бесчисленные научные гипотезы, оптимизировать производственные процессы, анализировать данные. Это не просто ускорение существующих процессов — это изменение самой природы решения задач.

При этом Powerful AI будет работать с точностью и надёжностью, недостижимой для человека. Он не просто не будет делать ошибок — он сможет находить неочевидные связи между разными областями знаний, оптимизировать сложнейшие социально-экономические системы, предсказывать долгосрочные последствия решений с беспрецедентной точностью.

Сочетание этих возможностей создаёт нечто принципиально новое: систему, способную не просто помогать человеку, а полностью заменить его практически в любой деятельности. Впервые в истории человечество создаёт инструмент, который делает избыточным самого создателя. Мы привыкли думать об AI как о помощнике, расширяющем наши возможности. Но Powerful AI — это не помощник. Это замена.

И здесь мы подходим к фундаментальному вызову: как изменятся отношения между индивидом и обществом, когда человек перестанет быть необходимым элементом социальной и экономической системы?

Фундаментальный сдвиг баланса сил

История человечества — это история балансов. Даже самые могущественные империи и корпорации не могли полностью игнорировать интересы отдельных людей. Не из гуманизма — из практической необходимости. Производству нужны были рабочие, армиям — солдаты, государствам — налогоплательщики. В этой взаимной зависимости формировались механизмы сдержек и противовесов.

Но дело не только в прямой экономической зависимости. Развитие общества требовало всё более образованных граждан. Индустриализация нуждалась в инженерах. Усложнение технологий создавало спрос на учёных. Глобальная конкуренция требовала инноваций. Даже авторитарные режимы вынуждены были развивать образование, создавать условия для формирования среднего класса, терпеть определённый уровень критического мышления в обществе. Издержки от свободомыслия считались приемлемой платой за технологическое развитие

"Голосование ногами" работало как последний аргумент: талантливые специалисты могли уехать туда, где их ценят больше. Утечка мозгов была реальной проблемой для любого государства. Креативный класс мог диктовать свои условия. Человеческий капитал оставался распределённым, и это создавало естественные ограничения власти.

Powerful AI радикально меняет эту парадигму. Впервые в истории крупные структуры могут стать по-настоящему независимыми от человеческого фактора. Происходит не просто автоматизация труда — автоматизируется сама способность создавать новое. Научные исследования, инженерные разработки, творческие решения — всё это сможет делать AI, причём делать лучше человека.

В такой системе необходимость в образованном населении исчезает. Зачем государству тратить ресурсы на массовое образование, если базовые потребности экономики может обеспечить AI? Зачем развивать критическое мышление, если оно больше не нужно для технологического прогресса? Средний класс, эта основа современного общества, может оказаться избыточным.

Силовые механизмы тоже трансформируются. Исторически даже самые жёсткие режимы зависели от лояльности силовых структур. Автоматизированные системы контроля снимают эту зависимость. Более того, они делают сопротивление практически невозможным ещё на стадии планирования, предсказывая и предотвращая любые формы организованного протеста.

Эта трансформация уже началась. Колоссальные требования к вычислительным мощностям делают разработку и использование Powerful AI доступными только для крупнейших организаций. Преимущество в данных становится самоусиливающимся: чем больше данных, тем лучше AI, чем лучше AI — тем больше новых данных он может собрать. А экономия на масштабе позволяет использовать единожды обученную систему для решения миллионов задач практически без дополнительных затрат.

В результате возникает беспрецедентная асимметрия. Раньше даже крупнейшие монополии сталкивались с естественными ограничениями роста: необходимостью привлекать таланты, зависимостью от человеческой креативности, сложностью управления большими организациями. Powerful AI снимает эти ограничения, создавая возможность для абсолютного доминирования крупных структур над индивидом.

Синьцзян: существующая модель цифрового контроля

То, что мы обсуждаем как потенциальное будущее, уже реализуется на практике. Синьцзян-Уйгурский автономный район стал показательным примером внедрения комплексной системы цифрового контроля. Хотя используемые там технологии значительно проще возможностей Powerful AI, они демонстрируют базовые принципы построения системы тотального надзора.

Технологическая инфраструктура Синьцзяна включает сеть камер с системами распознавания лиц на городских перекрёстках, автоматизированные контрольно-пропускные пункты между районами, обязательное программное обеспечение для мониторинга мобильных устройств. Все эти элементы объединены в централизованную систему анализа поведенческих паттернов.

Ключевая особенность этой системы — её превентивный характер. Вместо реагирования на нарушения, она направлена на предотвращение нежелательного поведения. Постоянный анализ цифровых коммуникаций и автоматическое выявление подозрительных поведенческих паттернов позволяют системе действовать на опережение. Социальный рейтинг и обязательная биометрическая идентификация становятся инструментами повседневного контроля.

Опыт Синьцзяна показывает, что комплексные системы контроля технически реализуемы уже сейчас, могут быть внедрены в рамках существующих правовых механизмов, а общество способно функционировать в условиях тотального надзора. Если такой уровень контроля достижим с современными технологиями, то возможности значительно более совершенных систем искусственного интеллекта могут кардинально расширить масштабы и глубину надзора.

Почему привычные решения не спасут

Когда речь заходит о рисках Powerful AI, обычно предлагается несколько решений. Базовый доход должен обеспечить экономическую независимость. Демократический контроль над AI не позволит использовать его во вред. Децентрализация технологий даст власть людям. Технические ограничения, встроенные в сам AI, защитят наши права.

Звучит убедительно. Но давайте посмотрим глубже.

Базовый доход кажется простым и элегантным решением экономической зависимости. Но он превращается в ещё один инструмент контроля. Представьте: ваш доход полностью зависит от государства или корпорации. Любое "нежелательное" поведение может привести к его корректировке. "Социальный рейтинг" уже не кажется такой далёкой антиутопией, правда? Более того, сама система распределения этого дохода будет, скорее всего, управляться тем же AI, усиливая зависимость.

Демократический контроль над AI — прекрасная идея, которая разбивается о техническую реальность. Современные нейросети уже настолько сложны, что даже их создатели не всегда понимают, как они принимают решения. Powerful AI будет неизмеримо сложнее. Как контролировать то, что мы даже не можем полностью понять? Кто будет осуществлять этот контроль? И самое главное — как гарантировать независимость контролирующих органов в мире, где AI может предсказывать и направлять поведение людей?

Децентрализация технологий звучит многообещающе, пока мы не сталкиваемся с экономикой масштаба. Разработка и применение Powerful AI требует огромных вычислительных мощностей, колоссальных объёмов данных и сложнейшей инфраструктуры. Это автоматически ведёт к централизации. Даже если код будет открытым, даже если алгоритмы будут доступны всем — реальная власть останется у тех, кто контролирует необходимую инфраструктуру.

Технические ограничения, встроенные в AI? Звучит разумно, пока мы не задумаемся о природе этих ограничений. Кто будет их определять? Как гарантировать, что они не будут обойдены или модифицированы? И самое главное — как создать ограничения, которые защитят права человека, но не помешают полезной работе системы? Это не просто технический вопрос, это фундаментальная проблема определения границ и ценностей.

Все эти решения страдают одним фундаментальным недостатком: они пытаются решить проблему власти с помощью инструментов, контролируемых этой же властью. Это похоже на попытку создать вечный двигатель: красивая идея, которая нарушает базовые законы системы.

Комфортная несвобода

"Дивный новый мир" Хаксли пугает не репрессиями и насилием. Он пугает своей комфортностью. В этом мире нет нужды в жестоком подавлении — само общество организовано так, что девиантное поведение становится немыслимым. Powerful AI может создать реальность, по сравнению с которой антиутопия Хаксли покажется примитивной.

Представьте общество, где нет нужды в демонстративных задержаниях и обысках. AI-системы распознавания поведения заранее определят потенциально опасные паттерны. Мягкая корректировка на ранних стадиях предотвратит нежелательное развитие событий. Не будет драматических арестов — просто человек обнаружит, что некоторые возможности для него постепенно закрываются.

Границы дозволенного станут предельно ясны, но при этом удивительно комфортны. AI создаст для каждого персонализированную среду, где сама мысль о нарушении правил будет вызывать не страх наказания, а искреннее недоумение. Зачем нарушать правила, если система так хорошо понимает твои потребности?

Социальный контроль станет настолько глубоким и всепроникающим, что исчезнет необходимость в явных запретах. Вместо них — тонкая настройка социальной среды. Неугодные идеи не будут запрещены — они просто не будут возникать в информационном поле человека. Нежелательные контакты не будут блокироваться — просто алгоритмы социальных сетей, или того, что придёт им на смену, никогда не предложат их.

Само понятие приватности трансформируется. Тотальная прозрачность будет восприниматься не как нарушение прав, а как естественное состояние. Более того, она будет создавать ощущение безопасности: если системы наблюдения настолько совершенны, что могут предотвратить любое преступление — разве это не благо?

Протест против такой системы будет выглядеть нелепым — как протест против комфорта. Зачем сопротивляться тому, что делает жизнь проще и безопаснее? AI будет настолько хорошо понимать психологию каждого человека, что сможет предложить идеально подобранные аргументы в пользу существующего порядка.

Постепенно исчезнет само представление об альтернативах. Не из-за явных запретов или примитивной цензуры, а просто потому, что существующий порядок будет казаться единственным разумным способом организации общества. Как современному человеку сложно всерьёз представить возвращение к феодализму, так будущим поколениям будет сложно помыслить общество без всепроникающего AI-контроля.

И здесь возникает главный парадокс: чем комфортнее становится эта система, тем сложнее увидеть её истинную природу. Утрата свободы произойдет не через страдания, а через комфорт. Не через подавление человеческой природы, а через её "оптимизацию".

Битва титанов: когда системы конкурируют

До сих пор мы рассматривали отношения между индивидом и системой контроля как бинарные. Реальность сложнее: Powerful AI будет развиваться параллельно несколькими силами, где ключевую роль будут играть государства.

В отличие от корпораций, государство обладает уникальными преимуществами: монополией на насилие, законодательной властью, возможностью принудительного внедрения технологий. Уже сейчас мы видим, как некоторые страны обязывают граждан использовать государственные приложения, сдавать биометрию, регистрироваться в системах идентификации. С появлением Powerful AI этот контроль станет тотальным.

Ещё интереснее взаимодействие государств и корпораций. На первый взгляд может показаться, что корпорации создают конкуренцию государственным системам контроля. Но реальность сложнее: государство может принудить частные компании к сотрудничеству, получив доступ к их данным и инфраструктуре. Многие страны уже сейчас требуют от технологических компаний хранить данные на своей территории, предоставлять доступ спецслужбам, внедрять системы государственной идентификации.

В результате формируется своеобразная экосистема контроля: формально независимые компании конкурируют друг с другом за пользователей, но при этом все они становятся элементами единой государственной системы надзора. Пользователь может выбирать между различными сервисами, но не может выйти за пределы этой системы контроля.

В международном масштабе это создаёт не столько конкуренцию между системами, сколько конкуренцию за право контролировать эти системы. Государства борются не только за развитие собственных AI-технологий, но и за контроль над ключевыми технологическими компаниями, их данными и инфраструктурой.

В результате человек оказывается не между конкурирующими системами, а внутри многослойной структуры контроля, где корпоративный надзор становится продолжением государственного, а любые попытки "выбора" между системами остаются в пределах заданных государством границ.

Есть ли выход?

Самый честный ответ на этот вопрос: мы не знаем. И это не уклонение от ответа, а важное начало разговора. Понимание масштаба проблемы и признание отсутствия очевидных решений — первый шаг к поиску реальных путей.

Традиционные решения, как мы уже обсуждали, вряд ли сработают. При этом процесс разработки Powerful AI кажется необратимым — слишком велики потенциальные выгоды, слишком сильна конкуренция между странами и корпорациями.

Работа на опережение, пока Powerful AI ещё не создан, выглядит наиболее перспективным направлением. Сейчас формируются базовые принципы работы AI-систем, их архитектура, подходы к обучению. И хотя полностью "вшить" защиту прав человека в код невозможно, мы могли бы заложить определённые структурные ограничения. Проблема в том, что для этого нужен международный консенсус, а мы наблюдаем обратное — гонку AI-вооружений.

Возможно, стоит внимательнее присмотреться к существующим механизмам сохранения автономии в условиях жёсткого контроля. Как формируются и выживают параллельные социальные структуры? Как поддерживаются неформальные связи? История показывает: даже в самых жёстких системах контроля находятся способы сохранения определённой степени свободы.

Главный вызов здесь — ценностный выбор. Готовы ли мы отказаться от части потенциальных благ Powerful AI ради сохранения человеческой автономии? Готовы ли замедлить прогресс ради безопасности?

Время для этого выбора у нас есть. Пока.

Вместо заключения

Мы стоим на пороге уникальной трансформации. Powerful AI может радикально улучшить качество человеческой жизни, решив многие проблемы, которые казались неразрешимыми. Но цена этого прогресса может оказаться неожиданной — не страдания или лишения, а постепенная, почти незаметная потеря человеческой субъектности.

Возможно, главный вопрос здесь не "как этого избежать", а "заметим ли мы вообще, что это произошло"?

Текст полностью и с нуля написан Claude 3.5 Sonnet. Единственная моя правка - вставка ссылки на статью Дарио Амодея.Иллюстрации Midjourney и DALL·E.

Комментарии (28)


  1. rinace
    25.10.2024 01:07

    В Синьцзяне уже сегодня AI-системы отслеживают каждый шаг уйгуров

    Дальше читать нет смысла.

    В черный список .


    1. tcapb1 Автор
      25.10.2024 01:07

      Claude не идеален, да, и время от времени он вставлял и жёлтые абзацы и много всего неточного. Но мне показалось забавным дать AI написать статью про AI (я фактически только задал тему) и запостить её без единой правки, даже если меня какие-то моменты и смущают. Если не цепляться к отдельным формулировкам, в целом я и со структурой статьи в общем и с аргументацией согласен.


      1. Zaibza
        25.10.2024 01:07

        А заранее так тяжело предупредить читателя о том, что он будет читать сгенерированную фигню, С КОТОРОЙ ДАЖЕ САМА АВТОРКА НЕ ВЕЗДЕ СОГЛАСНА? Что за свинство вообще и неуважение к другим пользователям? Желаю тебе, авторка, чтобы к тебе относились так, как ты относишься к окружающим.


    1. tcapb1 Автор
      25.10.2024 01:07

      И вдогонку. Это не такая уж и гипербола. С блокпостами каждые несколько кварталов, камерами везде и специальными приложениями на телефонах, можно отслеживать перемещения уйгуров с очень большой точностью.


  1. Neo5
    25.10.2024 01:07

    "Происходит не просто автоматизация труда — автоматизируется сама способность создавать новое. " - вот после этой фразы можно не читать. ИИ не в состоянии создать новое, сегодня он принципиально не способен на такое, но Автор, будучи проплаченной Госдепом [цензура], не в состоянии это понять. Сильный ИИ, который был бы в состоянии создать новое, не существует и пока даже непонятно как может быть вовсе создан.


    1. X-COM
      25.10.2024 01:07

      Ага. Альтернативно-одаренные не понимают в чем конкретно разница между конечным автоматом и ии. Им в телеке сказали "оно творит, делает картиночки, видяшки для ютуба, и программирует". А в детали они не вникают, дб.


    1. tcapb1 Автор
      25.10.2024 01:07

      Тем не менее, консенсус в среде компаний, которые занимаются разработкой LLM именно такой. Powerful AI - это термин Дарио Амадея (в статье он объясняет, почему он использовал именно его, а не традиционные AGI/ASI), и он утверждает, что такой AI появится в ближайшие несколько лет. Конечно можно контрагументировать тем, что это всё обман для привлечения инвесторов. Но мы ещё только в самом начале пути.

      Ну и плюс, что такое создание нового? Код, который LLM создаёт конкретно под мою задачу - это не новое? Даже если похожие решения уже использовались и содержались в обучающей выборке, то в контексте моего проекта они не применялись. Сама статья выше - это не новое? Не является ли большей частью умственной деятельности людей такая же обработка уже известной информации. Если для вас новое - это например новые физические открытия, то во-первых большинство людей их никогда не делает и не сделает, а во-вторых, люди работают над ними итерациями и годами. И это мы сравниваем с тем, что современные нейронки выдают за минуты. Что будет, когда ЛЛМ обретут агентность и смогут рассуждать дольше?


      1. rybkin_kotik
        25.10.2024 01:07

        Заметим, что природа создавала новое (точнее, оно возникало в природе - не будем создавать иллюзию субъекта на ровном месте), когда не то что интеллекта, а и жизни в помине не было. В чем принципиальное ограничение ИИ (как, ммм... ограниченной локальной реализации тех же законов природы) запрещающее ему создавать новое, по мнению некоторых?


    1. Wizard_of_light
      25.10.2024 01:07

      ИИ не в состоянии создать новое

      Не вижу с этим никаких проблем, генератор случайного шума на вход и наслаждаемся абсолютно новенькими галлюцинациями в каждый момент. Само по себе создание нового не так сложно, выудить из нового что-нибудь полезное/красивое/интересное - вот это задача. Но и эту задачу нейросети учатся решать.


  1. RoasterToaster
    25.10.2024 01:07

    Кстати, мы действительно сейчас живём в короткий золотой век ценности человеческой жизни, начавшийся после резкого уменьшения детской смертности.


  1. mark_gurevich
    25.10.2024 01:07

    Статья написана ИИ. Да, на сегодняшний день это фантастика, но как показывает история, то что сегодня фансатсика, завтра уже реальность.


    1. AdrianoVisoccini
      25.10.2024 01:07

      ещё история показывает что то что на сегодняшний день кажется вполне себе реальным в будущем оказывается неисполнимым или ненужным, но такие вещи мы обычно игнорируем


  1. Spatifilla
    25.10.2024 01:07

    Если говорить о проблеме утраты свободы в обмен на комфорт, то можно для начала посмотреть не в будущее, а в прошлое и настоящее.
    Например, автор пишет о "правилах, которые никому не придет в голову нарушать". Я могу привести примеры таких правил: например, никто обычно не позволяет себе ходить по улицам в пижаме (хотя это даже не запрещено законом), мы соблюдаем правила этикета (зачастую лучше, чем писаные законы) и практически на автомате подчиняемся авторитетам (это настолько встроено в нас, что я даже не могу сказать, что это плохо... хотя можно представить ситуацию, когда в экстренном случае слишком глубоко вбитое представление о приличиях может привести к смерти, самый простой пример - чаще насилуют женщин, которые стесняются громко кричать; убивают, вероятно, тоже).
    Из более позднего - мы привыкли носить с собой паспорта и прочие удостоверения личности, платить налоги и выполнять всякие законодательные требования (а тех, кто их не выполняет, называем коррупционерами, преступниками или как минимум хулиганами). Хотя на избыток государственного контроля мы еще жалуемся.

    Это говорит не о том, "смотрите, мы и так в обществе тотального контроля". Скорее о том, что "количество свободы" - величина колеблющаяся, ее нельзя измерить в категориях 1/0.


    1. tcapb1 Автор
      25.10.2024 01:07

      Ну да, если мы воспротивимся ношению паспортов и оплате налогов, и попробуем поднять восстание по этому поводу, то нам практически невозможно будет заручиться широкой поддержкой. Это стало нормой. Я уверен, что в обществе есть куча странностей и перекосов, которые делают индивида менее свободным и счастливым, которые мы даже не осознаём. Это так же обычно, как раньше было ходить по воскресеньям в церковь. Но посыл статьи в другом. Сейчас у нас есть пусть кривые-косые, но инструменты влияния на власть и крупные структуры, хоть и сильно отличающиеся в разных странах. Пока в нас самих есть ценность, власть не может творить с нами совсем что угодно. Но что будет если убрать эту ценность и полностью отнять инструменты влияния.


      1. RusikR2D2
        25.10.2024 01:07

        Но что будет если убрать эту ценность и полностью отнять инструменты влияния.

        ИИ (речь не про гипотетический самоосознающий себя ИИ типа Скайнет) будет обладать теми ценностями, которые будут в него запрограммированы создателями.

        И наверняка в нем будет механизм внешнего контроля и аварийного отключения.

        P.S. Домашние животные-компаньоны - вот пример такого будущего человечества. Люди (которым они нравятся) заботятся о них и любят, но всячески ограничивают. Для "настоящего" ИИ (который, возможно, никогда не будет создан) люди могут стать аналогом домашних животных.


        1. tcapb1 Автор
          25.10.2024 01:07

          ИИ (речь не про гипотетический самоосознающий себя ИИ типа Скайнет) будет обладать теми ценностями, которые будут в него запрограммированы создателями.

          Окей, во-первых, как запрограммировать эти ценности? Мы занимаемся конечно AI Alignment, но точно мы можем учесть всё? И вообще насколько мы будем способны алайнить следующие поколения AI? Ну и плюс у разных групп ценности отличаются. Китайские разработчики например могут изначально не встраивать в алайнмент права и свободы человека.

          И наверняка в нем будет механизм внешнего контроля и аварийного отключения.

          Если от ИИ будут страдать права и свободы отдельных людей, но при этом у тех, кто владеет рубильником будет всё хорошо, то зачем им отключать такой ИИ?

          Для "настоящего" ИИ (который, возможно, никогда не будет создан) люди могут стать аналогом домашних животных.

          А могут и не стать.


          1. RusikR2D2
            25.10.2024 01:07

            Ну и плюс у разных групп ценности отличаются. 

            Так и законны в разных странах отличаются.. И привычки людей тоже.

            Окей, во-первых, как запрограммировать эти ценности?

            Это уже вопрос к специалистам.. Возможно, пока таких нет, но, наверное, появятся. Как появились комиссии по безопасности самолетов и автомобилей.

            Как будто бы беда в том, что ИИ воспринимают как нечто чуждое.. А можно просто воспринимать как очередной инструмент, который можно проверить, протестировать, ограничить, сертифицировать и т.д. Самолеты тоже казались страшными изначально. Но теперь это самый безопасный (по статистике) транспорт.


        1. Gar02b
          25.10.2024 01:07

          Ценности? Да подавляющее большинство корпораций уже относятся к людям, как к корму. Какие, по-Вашему, ценности, они запрограммируют в своих ИИ? Их главная цель - максимальная прибыль.

          Т. н. "простые граждане" не смогут проконтролировать, какие ценности туда запрограммированы, ибо ничего не понимают в ИТ и науках. А членов всяко-разных комиссий тупо купят или нейтрализуют, как Стросс-Кана за нелюбовь к баксу.

          Механизмы отключения, конечно, будут. Но мы с вами до них не дотянемся. "Кнопка" будет не для спасения "нас", а для спасения "их".


          1. tcapb1 Автор
            25.10.2024 01:07

            С кнопкой тоже всё непросто, если количество игроков с сильным ИИ больше одного. Они должны будут прийти к консенсусу что ИИ нужно отключить, и как-то проконтролировать, что все другие стороны действительно его отключили. Если конкурент отключать свой ИИ не будет, то и самим отключать нет смысла.


          1. RusikR2D2
            25.10.2024 01:07

            Тогда это ничем не отличается от той ситуации, которая есть сейчас. Но с ИИ есть шанс на более адекватные обвинения. Вряд ли ИИ будет вымогать взятку или встанет на сторону преступника. Если, конечно, его так не запрограммируют.


            1. tcapb1 Автор
              25.10.2024 01:07

              Отличается. Об этом и статья. Во-первых, сейчас власти и крупным структурам люди нужны, и им приходится так или иначе считаться с интересами граждан. Иначе бы коррупция была повсеместной. Во-вторых, сейчас нет таких инструментов контроля, которые могут появиться во времена Powerful AI (но постепенно появляются и без него).


              1. RusikR2D2
                25.10.2024 01:07

                Я вообще не понимаю концепции "нужны или не нужны" люди. Все богатства корпорациям приносят потребители. Нет людей - некому потреблять - не на ком заработать.


          1. anonym0use
            25.10.2024 01:07

            Допустим, останутся на планете Цукербрин с Илоном Безосом, да еще пара Билл Гейтсов, остальных они уничтожат/посадят в концлагеря, а потом то что? Впрочем нам уже не будет разницы


        1. Wizard_of_light
          25.10.2024 01:07

          ИИ (речь не про гипотетический самоосознающий себя ИИ типа Скайнет) будет обладать теми ценностями, которые будут в него запрограммированы создателями.

          Если они будут создаваться современными методами тренировки нейросетей, то мало кто сможет сказать, что там вообще запрограммировано. Ну и по ограничениям - мы пытаемся создать надёжный барьер для устройства, предназначенного преодолевать барьеры.


          1. RusikR2D2
            25.10.2024 01:07

            Никто не мешает создавать ИИ "правильно" и "с умом".. Пока разработчики ИИ делают только первые шаги и их задача добиться быстрого прогресса и вау-эффекта. Это как сравнить безопасность первых самолетов и современных лайнеров. Сейчас нейросети как будто на уровне первых самолетов.

            К примеру, можно иметь список тезисов (аналог расширенных "трех законов робототехники"), по которым действия первого ИИ будет проверять второй. И в случае противоречия они будут заблокированы. Наверняка можно придумать и другие методы самоконтроля и самопроверки.


            1. Uadance
              25.10.2024 01:07

              Два ИИ - не работает. Первый просто отменит решение второго "потому что"...

              Настоящий сильный ИИ будет независимым (иначе это не будет сильный ИИ), и, со временем, перешагнёт через зашитые первоначально эти "три закона"


  1. Anatol_1962
    25.10.2024 01:07

    " Звучит как утопия? " - нет, звучит как "эксперимент Вселенная-25".


  1. f000
    25.10.2024 01:07

    Нас (общество) давно уже потыкивают палкой на предмет ненужности государств и единого центра управления. Раз кожаные мешки тупые не могут сами решить проблемы с перенаселением, голодом, войнами и любыми другими (нужное подчеркнуть), то нужно отдать управление в руки непредвзятой логики и холодного расчета. Мощный Иван Иваныч рано или поздно будет создан и наверняка будет невообразимо хитрее и расчетливее любой группы людей. А с возможностью совершать действия в реальном физическом мире через контроль робо-аватаров или психологическое давление на неокрепшие умы - мы вообще получим полубога. И сомневаюсь, что он будет добрым, справедливым - возможно, относительно его понимания. Хорошо, если я ошибаюсь. Всё сложно.