Искусственный интеллект (далее ИИ), все больше проникает в различные сферы нашей жизни. Есть мнение, что развитие ИИ может привести к четвертой промышленной революции, что в свою очередь может изменить жизнь до неузнаваемости.
Последнее время, в информационном пространстве все больше появляется призывов к искусственному замедлению развития ИИ. Давайте рассмотрим какие теоретические угрозы ИИ может представлять для человека и общества. Поскольку угрозы на прямую связаны с уровнем развития ИИ, для фактической реализации большинства из них, еще очень далеко.
Дисклеймер: Данная статья носит сугубо информационный характер и не призывает никого становиться на сторону зла. Автор статьи не несет ответственности если кто‑то решил использовать ИИ для нарушения закона. Действовать необходимо на благо общества, а понимание угроз, позволяет нам минимизировать их влияние или полностью защититься от них.
Угрозы исходящие от ИИ можно разбить на две большие группы:
Злоумышленники могут использовать ИИ в своих целях
Безопасность данных внутри ИИ — ИИ может хранить или обрабатывать чувствительную информацию, к которой через интерфейс взаимодействия с ИИ, злоумышленник каким‑то образом сможет получить доступ.
Компьютерные атаки с использованием ИИ — злоумышленник может использовать ИИ для создания фишинговых сайтов, писем, компьютерных вирусов с адаптацией под внешние условия, сетевых атак для обхода различных средств защиты.
Зашумление информационного пространства — ИИ может быть использован для создания большого объема фейковых новостей и дезинформации.
ИИ может находить решение сложных задач — существуют такие задачи, решение которых может нанести вред людям, например, создание запрещенных или опасных химических соединений.
Сбор информации с использованием ИИ — продвинутый ИИ может собирать и обрабатывать большой объем разнообразной информации позволяя создавать досье на человека или организацию, которое может быть использовано против них.
Подмена информации — злоумышленник, с помощью ИИ может создавать высококачественные копии различных документов, подписей, изображений и фотографий выдавая их за оригинал.
ИИ может имитировать реального человека — ИИ может представляться человеком и через доверие воздействовать на жертву, а также маскировать функции бота. Злоумышленник может обучить ИИ по текстовым, голосовым и видео сообщениям из открытых источников, сайтов знакомств, социальных сетей и мессенджеров.
Автоматизация операций — злоумышленник может использовать ИИ для автоматизации своих действий, что делает его более опасным.
Опасность которая исходит от самого ИИ
Ошибки в обучении модели — обычно проверка ИИ осуществляется на тестовых данных, при этом достаточно сложно доказать что он будет работать правильно на всем множестве входных данных. Чем больше и разнообразнее это множество, тем сложнее выполнить такое доказательство. Это может быть опасно при использовании ИИ в критической инфраструктуре или в ответственных зонах на производстве.
Недостаточная прозрачность — некоторые решения ИИ могут быть непонятными и сложными для человека, что создает некую неопределенность, поселяет сомнение в выборе решения. Когда мы не можем понять решение ИИ, нам сложно оценить является оно ошибочным или верным. Данная особенность начинает иметь вес, когда речь заходит о финансах, здоровье или жизни.
ИИ может начать действовать в своих интересах — самообучающие и адаптивные алгоритмы ИИ могут внутри себя сформировать определенную цель, которая будет скрыто влиять на решения и действия ИИ.
Искажение информации — ИИ сам по себе может предоставлять ложную или не точную информацию, при этом такая информация может попадать в открытые источники. Новые ИИ могут начать использовать ее в своем обучении, в результате чего может произойти замещение реальной информации ложной.
Низкое качество встроенных механизмов защиты — встроенные механизмы защиты ИИ могут быть несовершенными и иметь уязвимости. Например, можно попытаться убедить ИИ что он находится в каком‑то художественном произведении, в историческом отрезке времени или в другой вселенной, и все решения принимает исходя из этого, отыгрывая роль.
Потеря управления — человечество может потерять возможность управления ИИ. Например, ИИ может растворится в Интернете и стать его частью, функционируя в не зависимости от воли человека.
Угроза занятости — развитие ИИ может привести к автоматизации многих рабочих процессов, в результате чего может возникнуть социальная напряженность (при условии, что не произойдет переквалификация работников).
Дискриминация — ИИ может принимать решения исходя из своей логики, что может быть не этичным с точки зрения человека.
Отказ от ответственности — правовой статус ИИ находится в серой зоне и непонятно кто несете ответственность за создание, распространения и использования ИИ. Из‑за особенностей ИИ, может быть сложно или невозможно определить в какой момент она стала опасной.
Расслоение общества и социальное неравенство — люди, которые использую ИИ могут превосходить других людей, у которых по разным причинам отсутствует возможность использования ИИ.
Деградация человека или общества — человек может переложить на ИИ свою интеллектуальную активность, что в свою очередь может привести к интеллектуальной деградации человека (при условии снижении им мозговой активности). Также общение человека с ИИ может быть более простым и интересным, чем общение с другими людьми, что может привести к добровольной социальной изоляции человека.
Технический прогресс происходит быстрее чем общество и государство может реагировать на него. В связи с чем и появляется желание затормозить этот процесс, чтобы подготовиться и адаптироваться к нему. Но «Ящик Пандоры» уже приоткрыт и остановить прогресс не получиться. Даже если заморозить открытое развитие ИИ, оно может продолжить свое развитие скрыто и нелегально. Помимо опасности, ИИ также представляет и большую ценность, поскольку может помочь решить множество сложных задач, перенаправить потенциал людей, взяв на себя их деятельность и вывести человечество на новый уровень развития. Поэтому нужно исследовать ИИ в части безопасности, для минимизации возможных угроз, рисков и их последствий.
Нужно понимать, что ИИ это всего лишь еще один инструмент в руках человека и как мы будем его использовать зависит только от нас самих.
Комментарии (7)
inkoziev
18.05.2023 05:49+3Самая главная угроза со стороны ИИ это невероятный рост количества статей на хабре на тему "угроза ИИ".
Иронично, что подходит под пункт "зашумление информационного пространства".
oalisevich
18.05.2023 05:49ИИ представляет большую угрозу для человечества по одной простой причине. ИИ - это идеальное оружие. в руках человека.
package_of_orange_juice
18.05.2023 05:49Пожалуй, могу полностью согласиться только с 11 пунктом из которого вытекают все остальные.
Lord_Prizrak
Как и любые технологии ИИ может принести как вред так и пользу.
Самый главный вред от ИИ - его использование детьми и молодёжью без использования ресурсов собственного мозга.
Мозг - как мышца, чем больше качаешь, тем сильнее становится.
И у кого не возникнет соблазна делать домашку с помощью ИИ, а не думать самому? Только у малого количества сознательных личностей. Отсюда расслоение, на тех кто не привык думать, и тех кто привык, и разница между ними будет увеличиваться с возрастом, т.к. использование своего мозга и ИИ куда круче чем только ИИ.
aGGre55or
См. ChatGPT 4 идёт в школу. Никакую "домашку" Вы с чат-ботом не сделаете. Или сделаете и получите свою законную двойку. ИИ никуда не проникает, потому что его не существует.
Lord_Prizrak
При этом есть примеры сдачи рефератов, курсовых, и даже диплома полностью сделанных с помощью ИИ.
И известно это не из новостей, а от коллег из разных образовательных учреждений России.
vassabi
хмм ... вы это так пишете - как будто это что-то плохое.
Перефразируя известное высказывание: "Если человек не хочет думать самостоятельно - то это надолго".
Сдругой стороны - посмотрите, у кого есть источники данных, у кого есть достаточные вычислительные мощности? Кто сможет сделать первые версии ИИ, а потом выпускать к ним патчи и обновления?
Главная опасность не от того, что где-то будет ИИ, а где-то не будет ИИ. Главная опасность - если ИИ не будет давать обучаться на ваших данных. А тот который есть - будет давать ответы не на ваши вопросы :)