Искусственный интеллект (далее ИИ), все больше проникает в различные сферы нашей жизни. Есть мнение, что развитие ИИ может привести к четвертой промышленной революции, что в свою очередь может изменить жизнь до неузнаваемости.

Последнее время, в информационном пространстве все больше появляется призывов к искусственному замедлению развития ИИ. Давайте рассмотрим какие теоретические угрозы ИИ может представлять для человека и общества. Поскольку угрозы на прямую связаны с уровнем развития ИИ, для фактической реализации большинства из них, еще очень далеко.

"Ящик Пандоры" уже приоткрыт
«Ящик Пандоры» уже приоткрыт

Дисклеймер: Данная статья носит сугубо информационный характер и не призывает никого становиться на сторону зла. Автор статьи не несет ответственности если кто‑то решил использовать ИИ для нарушения закона. Действовать необходимо на благо общества, а понимание угроз, позволяет нам минимизировать их влияние или полностью защититься от них.

Угрозы исходящие от ИИ можно разбить на две большие группы:

Злоумышленники могут использовать ИИ в своих целях

  1. Безопасность данных внутри ИИ — ИИ может хранить или обрабатывать чувствительную информацию, к которой через интерфейс взаимодействия с ИИ, злоумышленник каким‑то образом сможет получить доступ.

  2. Компьютерные атаки с использованием ИИ — злоумышленник может использовать ИИ для создания фишинговых сайтов, писем, компьютерных вирусов с адаптацией под внешние условия, сетевых атак для обхода различных средств защиты.

  3. Зашумление информационного пространства — ИИ может быть использован для создания большого объема фейковых новостей и дезинформации.

  4. ИИ может находить решение сложных задач — существуют такие задачи, решение которых может нанести вред людям, например, создание запрещенных или опасных химических соединений.

  5. Сбор информации с использованием ИИ — продвинутый ИИ может собирать и обрабатывать большой объем разнообразной информации позволяя создавать досье на человека или организацию, которое может быть использовано против них.

  6. Подмена информации — злоумышленник, с помощью ИИ может создавать высококачественные копии различных документов, подписей, изображений и фотографий выдавая их за оригинал.

  7. ИИ может имитировать реального человека — ИИ может представляться человеком и через доверие воздействовать на жертву, а также маскировать функции бота. Злоумышленник может обучить ИИ по текстовым, голосовым и видео сообщениям из открытых источников, сайтов знакомств, социальных сетей и мессенджеров.

  8. Автоматизация операций — злоумышленник может использовать ИИ для автоматизации своих действий, что делает его более опасным.

Опасность которая исходит от самого ИИ

  1. Ошибки в обучении модели — обычно проверка ИИ осуществляется на тестовых данных, при этом достаточно сложно доказать что он будет работать правильно на всем множестве входных данных. Чем больше и разнообразнее это множество, тем сложнее выполнить такое доказательство. Это может быть опасно при использовании ИИ в критической инфраструктуре или в ответственных зонах на производстве.

  2. Недостаточная прозрачность — некоторые решения ИИ могут быть непонятными и сложными для человека, что создает некую неопределенность, поселяет сомнение в выборе решения. Когда мы не можем понять решение ИИ, нам сложно оценить является оно ошибочным или верным. Данная особенность начинает иметь вес, когда речь заходит о финансах, здоровье или жизни.

  3. ИИ может начать действовать в своих интересах — самообучающие и адаптивные алгоритмы ИИ могут внутри себя сформировать определенную цель, которая будет скрыто влиять на решения и действия ИИ.

  4. Искажение информации — ИИ сам по себе может предоставлять ложную или не точную информацию, при этом такая информация может попадать в открытые источники. Новые ИИ могут начать использовать ее в своем обучении, в результате чего может произойти замещение реальной информации ложной.

  5. Низкое качество встроенных механизмов защиты — встроенные механизмы защиты ИИ могут быть несовершенными и иметь уязвимости. Например, можно попытаться убедить ИИ что он находится в каком‑то художественном произведении, в историческом отрезке времени или в другой вселенной, и все решения принимает исходя из этого, отыгрывая роль.

  6. Потеря управления — человечество может потерять возможность управления ИИ. Например, ИИ может растворится в Интернете и стать его частью, функционируя в не зависимости от воли человека.

  7. Угроза занятости — развитие ИИ может привести к автоматизации многих рабочих процессов, в результате чего может возникнуть социальная напряженность (при условии, что не произойдет переквалификация работников).

  8. Дискриминация — ИИ может принимать решения исходя из своей логики, что может быть не этичным с точки зрения человека.

  9. Отказ от ответственности — правовой статус ИИ находится в серой зоне и непонятно кто несете ответственность за создание, распространения и использования ИИ. Из‑за особенностей ИИ, может быть сложно или невозможно определить в какой момент она стала опасной.

  10. Расслоение общества и социальное неравенство — люди, которые использую ИИ могут превосходить других людей, у которых по разным причинам отсутствует возможность использования ИИ.

  11. Деградация человека или общества — человек может переложить на ИИ свою интеллектуальную активность, что в свою очередь может привести к интеллектуальной деградации человека (при условии снижении им мозговой активности). Также общение человека с ИИ может быть более простым и интересным, чем общение с другими людьми, что может привести к добровольной социальной изоляции человека.

Технический прогресс происходит быстрее чем общество и государство может реагировать на него. В связи с чем и появляется желание затормозить этот процесс, чтобы подготовиться и адаптироваться к нему. Но «Ящик Пандоры» уже приоткрыт и остановить прогресс не получиться. Даже если заморозить открытое развитие ИИ, оно может продолжить свое развитие скрыто и нелегально. Помимо опасности, ИИ также представляет и большую ценность, поскольку может помочь решить множество сложных задач, перенаправить потенциал людей, взяв на себя их деятельность и вывести человечество на новый уровень развития. Поэтому нужно исследовать ИИ в части безопасности, для минимизации возможных угроз, рисков и их последствий.

Нужно понимать, что ИИ это всего лишь еще один инструмент в руках человека и как мы будем его использовать зависит только от нас самих.

Комментарии (7)


  1. Lord_Prizrak
    18.05.2023 05:49
    -2

    Как и любые технологии ИИ может принести как вред так и пользу.

    Самый главный вред от ИИ - его использование детьми и молодёжью без использования ресурсов собственного мозга.

    Мозг - как мышца, чем больше качаешь, тем сильнее становится.

    И у кого не возникнет соблазна делать домашку с помощью ИИ, а не думать самому? Только у малого количества сознательных личностей. Отсюда расслоение, на тех кто не привык думать, и тех кто привык, и разница между ними будет увеличиваться с возрастом, т.к. использование своего мозга и ИИ куда круче чем только ИИ.


    1. aGGre55or
      18.05.2023 05:49
      +1

      См. ChatGPT 4 идёт в школу. Никакую "домашку" Вы с чат-ботом не сделаете. Или сделаете и получите свою законную двойку. ИИ никуда не проникает, потому что его не существует.


      1. Lord_Prizrak
        18.05.2023 05:49

        При этом есть примеры сдачи рефератов, курсовых, и даже диплома полностью сделанных с помощью ИИ.

        И известно это не из новостей, а от коллег из разных образовательных учреждений России.


    1. vassabi
      18.05.2023 05:49

      Только у малого количества сознательных личностей. Отсюда расслоение, на тех кто не привык думать, и тех кто привык, и разница между ними будет увеличиваться

      хмм ... вы это так пишете - как будто это что-то плохое.

      Перефразируя известное высказывание: "Если человек не хочет думать самостоятельно - то это надолго".

      Сдругой стороны - посмотрите, у кого есть источники данных, у кого есть достаточные вычислительные мощности? Кто сможет сделать первые версии ИИ, а потом выпускать к ним патчи и обновления?
      Главная опасность не от того, что где-то будет ИИ, а где-то не будет ИИ. Главная опасность - если ИИ не будет давать обучаться на ваших данных. А тот который есть - будет давать ответы не на ваши вопросы :)


  1. inkoziev
    18.05.2023 05:49
    +3

    Самая главная угроза со стороны ИИ это невероятный рост количества статей на хабре на тему "угроза ИИ".
    Иронично, что подходит под пункт "зашумление информационного пространства".


  1. oalisevich
    18.05.2023 05:49

    ИИ представляет большую угрозу для человечества по одной простой причине. ИИ - это идеальное оружие. в руках человека.


  1. package_of_orange_juice
    18.05.2023 05:49

    Пожалуй, могу полностью согласиться только с 11 пунктом из которого вытекают все остальные.