Подобно созданию атомной бомбы  искусственный интеллект изменит всё - проблема в том, что мы не знаем как.

Промпт: кот Шрёдингера в противогазе на улице солнечного города накрытого ядерным взрывом, глянцевое фото
Промпт: кот Шрёдингера в противогазе на улице солнечного города накрытого ядерным взрывом, глянцевое фото

В 5:29 утра 16 июля 1945 года мир вступил в ядерную эпоху. Глубоко в пустыне Нью-Мексико учёные наблюдали тест первого"гаджета" - ядерной бомбы с шести килограммовым радиоактивным ядром. Её назвали "Тринити", и она стала кульминацией Манхэттенского проекта, одного из самых дорогостоящих когда-либо реализованных исследовательских проектов. Люди, давшие рождение этому атомному оружию, наблюдали за взрывом через защитные очки, укрывшись в бункерах на расстоянии 10 км от того места, где "гаджет" был поднят на высоту 30 метровой башни и сброшен, чтобы имитировать эффект бомбардировки.

После задержки из-за дождя они щёлкнули тумблером, и песок пустыни мгновенно превратился в стекло на сотни метров вокруг. Наблюдатели были ошеломлены светом и жаром. Горы осветились ярче, чем пустынным солнцем, жар был как если бы их "поместили в духовку". Интенсивность взрыва поразила даже нердов ученых. Физик-теоретик и научный руководитель прокта Роберт Оппенгеймер позже вспоминал, что "несколько человек засмеялись, некоторые заплакали, но большинство просто онемели".  Всё это напомнило ему текст из Бхагавадгиты: "Теперь я стал Смертью, разрушителем миров" (глава 11, шлока 32).

И только один из учёных испытал толику облегчения. Это был Энрико Ферми, он предполагал, что есть шанс того, что сама атмосфера загорится и уничтожит всю планету. А всего несколько недель спустя уже две атомные бомбы были сброшены на Японию - став первым испытанием ядерного оружия на живых людях, а не на песке пустыни.

На этой неделе у меня не настолько масштабное понимание. В 14:00 этого вторника я увидел фотографии ареста Дональда Трампа, его сопротивление полицейским и то, как его уложили на землю. Затем последовали фотографии Франциска (папы римского) в белом дизайнерском пуховике. Они выглядели очень реальными, но оказалось, что это дипфейки.

Папа римский Франциск  в белом дизайнерском пуховике
Папа римский Франциск  в белом дизайнерском пуховике

Ядерная революция стала одной из наиболее трансформационных технологий, когда-либо созданных. Она дала нам возможность уничтожить жизнь на этой планете. Взрыв искусственного интеллекта в этом году может привести к тому же. Он изменит всё. Мы просто не знаем как.

Наш мир чудом избежал дальнейшего использования ядерных боеголовок. Ядерные арсеналы выросли. Мощь оружия значительно увеличилась. В 1960-х годах была испытана Царь-бомба мощностью в почти 59 мегатонн, эквивалентной 59 миллионам тонн тротила. Что в 1500 раз превышает общую силу бомб, сброшенных на Хиросиму и Нагасаки. Согласно Часам Судного дня, мы находились в нескольких секундах от полного уничтожения в ядерном пламени.

Моя нервозность по поводу новых технологий не уменьшилась после письма, подписанного на этой неделе группой известных технологических гигантов, включая Илона Маска, которые призвали компании, занимающиеся искусственным интеллектом, приостановить все исследования на период в шесть месяцев. Они говорят нам, что существует «неуправляемая гонка за разработкой и развёртыванием всё более мощных искусственных интеллектов, которые никто - даже их создатели - не может понять, предсказать или надёжно контролировать».

Я подумал о поразительной параллели между этими людьми и физиками, которые выразили сожаление и глубокую обеспокоенность после создания ядерной бомбы. Альберт Эйнштейн, который помог убедить президента Рузвельта создать проект Манхэттен, позже сказал: «Если бы я знал, что немцы не смогут создать атомную бомбу, я бы ничего не сделал». Лео Силард (которому в дождливый день 1933 года пришла идея цепной реакции ядерного деления) позже стал решительным противником ядерного оружия, организовав группу учёных, призывающих к разоружению. «Я чувствую ответственность», написал Силард, «за изобретение чего-то, что может быть огромной пользой для человечества и одновременно огромным вредом для человечества».

На этой неделе министр науки, инноваций и технологий Великобритании Мишель Донелан заявила,  что «Нам нужны правила, чтобы быть уверенным что ИИ будет развиваться безопасно». Но проблема в том, что ИИ разрабатываются компаниями находящимися под юрисдикциями разных стран (из известных ИИ у США есть СhatGPT и Midjourney, у России Kandinsky, у Китая ERNIE-ViLG) и решение принятое в одной стране не будет иметь обязательной силы в других.

Почти все насущные проблемы, с которыми мы сталкиваемся - миграция, климат, нестабильность банковской системы, а теперь и искусственный интеллект - могут быть решены только через международное сотрудничество. Национальная политика может победить на выборах, но любая серьёзная попытка решения проблемы требует транснациональных действий. Сегодня.

Комментарии (19)


  1. Tarnella
    07.04.2023 09:48
    +4

    Джинна в бутылку никогда не загонишь. Если он есть придется с этим как то жить


  1. myswordishatred
    07.04.2023 09:48
    +3

    Открытое назад не закрыть. Ладно бы ещё это всё где-нибудь в лабораториях на дне океана изобретали и никому не показывали мотив целесообразности раскрытия невероятных открытий есть, например, у Лема в повести "Глас Господа"; да и вообще прочитать стоит, если вы ещё не, так ведь всем уже показали что такое возможно. Так что любой достаточно упорный и умный человек (или группа людей) может повторить и превзойти при условии вложений времени и средств.

    Это не ядерные испытания, дома реактор не соберёшь (хотя попытки были). Так что как-то... глупо, что ли, не заниматься исследованиями в этой области. И тут ведь даже странам не получиться договориться эффективно: где гарантии, что в каком-нибудь Пенджабе небольшая группа из трёхсот индусов не кодит какую-нибудь Kali-GTP чтобы показать клятым пакистанцам кто тут территорией командует?


    1. HellKaim
      07.04.2023 09:48
      +1

      Отвечу так: когда кое-кому запретили покупать тяжелое железо для его маленького манхетеннского прокта, этот кое кто купил... Sony playstation, взял разрабов и был горд собой. Так чтл да - джина обратно не запихнуть.


  1. dmitry78
    07.04.2023 09:48
    +4

    по качеству текста - "гуртовщики мыши"


  1. sintech
    07.04.2023 09:48
    +2

    Что в 10 раз превышает 

    Может быть в 1000 раз? Там были колотонны а тут мегатонны.


  1. johnfound
    07.04.2023 09:48
    +13

    Что-то стали надоедать такие статьи.


  1. DeemChan Автор
    07.04.2023 09:48

    Немного цифр для любителей поделить Царь-бомбу на Малыша с Толстяком:

    "Царь-бомба" (Tsar Bomba)
    58,6 мегатонны в тротиловом эквиваленте (русскоязычная вики)
    50–58 megatons of TNT (ангоязычная вики)

    "Малыш" (Little Boy)
    от 13 до 18 килотон ТНТ (русскоязычная вики)
    15 kilotons of TNT (ангоязычная вики)

    "Толстяк" (Fat Man)
    21 килотонна ТНТ (обе версии вики приводят одинковые цифры)

    И спасибо за внимательнось!


  1. trolley813
    07.04.2023 09:48
    +2

    Вот я немного не понимаю. Ведь нейросеть - это всего лишь черный ящик, который на какой-то запрос выдает какой-то ответ (с точки зрения математики, это всего лишь эдакая функция). То есть, работает она только по команде и сама никаких решений не принимает. И выйти за пределы своего кластера без помощи человека (эти слова я специально подчеркиваю) она никак не сможет. Грубо говоря, отключил кластер от электричества - и все, финита ля комедия.

    И еще один далеко не праздный вопрос. Вот если нейросеть якобы (как все пишут) может сделать вывод о необходимости уничтожения человечества, поскольку деятельность человека опасна для природы, то почему эта же самая нейросеть (обученная, между прочим, на антропоцентрических текстах, где слово "опасно" без уточнения означает прежде всего опасность для самого человека/человечества) не может прийти к выводу об опасности для человечества себя самой и, так сказать, самоуничтожиться?


    1. sintech
      07.04.2023 09:48

      В том то и дело, что от полной изоляции и диалогового режима до неограниченного доступа к внешнему миру ее отделяет только скрипт в 10 строчек на питоне, который будет дергать API и выполнять команды.


    1. Hardcoin
      07.04.2023 09:48
      +1

      отключил кластер от электричества

      Из атомной бомбы тоже можно систему подрыва вынуть, она будет безопасна. Но вам не позволят. Так же как и собственники ИИ не позволят его отключить, если ИИ опасен только вам, а им, предположим, на пользу.


      1. playermet
        07.04.2023 09:48

        Ну так собственники ИИ и не дадут ИИ делать что-то, кроме как давать ответы на вопросы.


        1. Hardcoin
          07.04.2023 09:48

          Почему вы так решили? Уже сейчас стараются сделать, что бы ИИ мог намного больше, чем просто ответы на вопросы. Посмотрите хотя бы toolformer, если интересуетесь темой.


          1. playermet
            07.04.2023 09:48

            Почему вы так решили?

            Потому что никто не хочет, чтобы его убил его же робот. Или чтобы его же ИИ вдруг стал лоялен условному противнику из своих чернокоробочных соображений, и мог ему тайно помогать. Чтобы ИИ мог реально мог угрожать человечеству аля скайнет, ему нужно лет на пять минимум все производственные мощности планеты отдать, вместе с людьми, которые и будут выполнять всю работу. Это при гипотетическом условии что ИИ достигнет сингулярности и будет все делать идеально, а не как сейчас - википедия с интеллектом младенца.

            Уже сейчас стараются сделать, что бы ИИ мог намного больше, чем просто ответы на вопросы.

            Ну так инстанс ИИ нужно доразрабатывать, чтобы он мог просто пару глаз в виде камер получить. Для обработки данных с которых нужны видеокарты, электричество, и инфраструктура. А это могут обеспечить только люди за свои деньги и своими руками, и в очень ограниченном количестве. Любой минимальный апгрейд ИИ требует вмешательства людей.

            Посмотрите хотя бы toolformer, если интересуетесь темой.

            Все критически важные системы человечества (электростанции, ЯО, и т.д.) изолированы от глобального интернета, что значительно ограничивает возможности ИИ в нем.


            1. Hardcoin
              07.04.2023 09:48
              +2

              Ему не нужно прямое управление. Достаточно убедить других помогать ему. Если условный Бен Ладен получал поддержку от своих сторонников годами, то ИИ тем более сможет, как только чуть-чуть поумнеет.

              Интеллект младенца, это конечно весело. Небольшие скрипты он наверняка пишет не хуже вас, но в десятки раз быстрее. Или анализирует отчёт Теслы на сотни страниц. Все бы младенцы были такими, наш мир был бы совсем другим.


              1. playermet
                07.04.2023 09:48

                Достаточно убедить других помогать ему.

                И что он может предложить, чтобы ему помогали? А его создатель в это время куда будет смотреть? Сколько человек он сможет убедить, и что конкретно сделать?

                как только чуть-чуть поумнеет

                Как только будет тотально переработана вся его архитектура, скорее, поскольку сейчас у ИИ даже нет одной постоянной "личности" с долгой памятью, чтобы он мог что-то сложное планировать и исполнять.

                Интеллект младенца, это конечно весело

                Как есть. Он решает задачи которые имеют линейное решение, и едва удерживает контекст. Легко можно сделать задачу, которую дошкольник сможет решить, а сегодняшние публичные ИИ - нет.


                1. Hardcoin
                  07.04.2023 09:48
                  +1

                  Я не зря привел Бен Ладена в пример. Что он смог предложить своим последователям? Или, наоборот, Ганди. Сколько людей он смог убедить? Миллионы.

                  Легко можно сделать задачу

                  И наоборот. Легко можно сделать задачу, которую вы сделать не сможете, а ИИ - запросто. Само по себе это ничего не доказывает.


                  1. playermet
                    07.04.2023 09:48

                    Легко можно сделать задачу, которую вы сделать не сможете, а ИИ - запросто. Само по себе это ничего не доказывает.

                    Все задачи которые сейчас не может выполнить человек из разряда "калькулятор считает быстрее человека". Любую задачу обладающую минимальной сложностью ИИ решает не лучше буханки хлеба.


            1. trolley813
              07.04.2023 09:48

              Полностью согласен. Плюс есть еще такая вещь, как власти. Если ИИ начнет писать неудобные для них вещи (например, в США - о том, что существуют только 2 пола или что "зеленая" энергетика на самом деле совсем не зеленая), то эту лавочку быстренько прикроют. Принцип "ради прибыли в 300% капиталист сделает все, что угодно" работает и в обратную сторону - если собственникам ИИ будет грозить банкротство и/или уголовное преследование, то они будут готовы закрыть подобные проекты.


    1. perfect_genius
      07.04.2023 09:48

      Если самоуничтожится, то люди создадут новый, без этого фатального недостатка.
      Я не удивлюсь, если сильный ИИ создан давно и активно мешает созданию второго.