Опасности и уязвимости искусственного интеллекта: стоит ли остановить прогресс?

Искусственный интеллект (далее ИИ), все больше проникает в различные сферы нашей жизни. Есть мнение, что развитие ИИ может привести к четвертой промышленной революции, что в свою очередь может изменить жизнь до неузнаваемости. Последнее время, в информационном пространстве все больше появляется призывов к искусственному замедлению развития ИИ. Давайте рассмотрим какие теоретические угрозы ИИ может представлять для человека и общества. Поскольку угрозы на прямую связаны с уровнем развития ИИ, для фактической реализации большинства из них, еще очень далеко. Данная статья носит сугубо информационный характер и не призывает никого становиться на сторону зла. Автор статьи не несет ответственности если кто‑то решил использовать ИИ для нарушения закона. Действовать необходимо на благо общества, а понимание угроз, позволяет нам минимизировать их влияние или полностью защититься от них. Угрозы исходящие от ИИ можно разбить на две большие группы:

Злоумышленники могут использовать ИИ в своих целях

  1. Безопасность данных внутри ИИ — ИИ может хранить или обрабатывать чувствительную информацию, к которой через интерфейс взаимодействия с ИИ, злоумышленник каким‑то образом сможет получить доступ.
  2. Компьютерные атаки с использованием ИИ — злоумышленник может использовать ИИ для создания фишинговых сайтов, писем, компьютерных вирусов с адаптацией под внешние условия, сетевых атак для обхода различных средств защиты.
  3. Зашумление информационного пространства — ИИ может быть использован для создания большого объема фейковых новостей и дезинформации.
  4. ИИ может находить решение сложных задач — существуют такие задачи, решение которых может нанести вред людям, например, создание запрещенных или опасных химических соединений.
  5. Сбор информации с использованием ИИ — продвинутый ИИ может собирать и обрабатывать большой объем разнообразной информации позволяя создавать досье на человека или организацию, которое может быть использовано против них.
  6. Подмена информации — злоумышленник, с помощью ИИ может создавать высококачественные копии различных документов, подписей, изображений и фотографий выдавая их за оригинал.
  7. ИИ может имитировать реального человека — ИИ может представляться человеком и через доверие воздействовать на жертву, а также маскировать функции бота. Злоумышленник может обучить ИИ по текстовым, голосовым и видео сообщениям из открытых источников, сайтов знакомств, социальных сетей и мессенджеров.
  8. Автоматизация операций — злоумышленник может использовать ИИ для автоматизации своих действий, что делает его более опасным.

Опасность которая исходит от самого ИИ

  1. Ошибки в обучении модели — обычно проверка ИИ осуществляется на тестовых данных, при этом достаточно сложно доказать что он будет работать правильно на всем множестве входных данных. Чем больше и разнообразнее это множество, тем сложнее выполнить такое доказательство. Это может быть опасно при использовании ИИ в критической инфраструктуре или в ответственных зонах на производстве.
  2. Недостаточная прозрачность — некоторые решения ИИ могут быть непонятными и сложными для человека, что создает некую неопределенность, поселяет сомнение в выборе решения. Когда мы не можем понять решение ИИ, нам сложно оценить является оно ошибочным или верным. Данная особенность начинает иметь вес, когда речь заходит о финансах, здоровье или жизни.
  3. ИИ может начать действовать в своих интересах — самообучающие и адаптивные алгоритмы ИИ могут внутри себя сформировать определенную цель, которая будет скрыто влиять на решения и действия ИИ.
  4. Искажение информации — ИИ сам по себе может предоставлять ложную или не точную информацию, при этом такая информация может попадать в открытые источники. Новые ИИ могут начать использовать ее в своем обучении, в результате чего может произойти замещение реальной информации ложной.
  5. Низкое качество встроенных механизмов защиты — встроенные механизмы защиты ИИ могут быть несовершенными и иметь уязвимости. Например, можно попытаться убедить ИИ что он находится в каком‑то художественном произведении, в историческом отрезке времени или в другой вселенной, и все решения принимает исходя из этого, отыгрывая роль.
  6. Потеря управления — человечество может потерять возможность управления ИИ. Например, ИИ может растворится в Интернете и стать его частью, функционируя в не зависимости от воли человека.
  7. Угроза занятости — развитие ИИ может привести к автоматизации многих рабочих процессов, в результате чего может возникнуть социальная напряженность (при условии, что не произойдет переквалификация работников).
  8. Дискриминация — ИИ может принимать решения исходя из своей логики, что может быть не этичным с точки зрения человека.
  9. Отказ от ответственности — правовой статус ИИ находится в серой зоне и непонятно кто несете ответственность за создание, распространения и использования ИИ. Из‑за особенностей ИИ, может быть сложно или невозможно определить в какой момент она стала опасной.
  10. Расслоение общества и социальное неравенство — люди, которые использую ИИ могут превосходить других людей, у которых по разным причинам отсутствует возможность использования ИИ.
  11. Деградация человека или общества — человек может переложить на ИИ свою интеллектуальную активность, что в свою очередь может привести к интеллектуальной деградации человека (при условии снижении им мозговой активности). Также общение человека с ИИ может быть более простым и интересным, чем общение с другими людьми, что может привести к добровольной социальной изоляции человека.

Технический прогресс происходит быстрее чем общество и государство может реагировать на него. В связи с чем и появляется желание затормозить этот процесс, чтобы подготовиться и адаптироваться к нему. Но «Ящик Пандоры» уже приоткрыт и остановить прогресс не получиться. Даже если заморозить открытое развитие ИИ, оно может продолжить свое развитие скрыто и нелегально. Помимо опасности, ИИ также представляет и большую ценность, поскольку может помочь решить множество сложных задач, перенаправить потенциал людей, взяв на себя их деятельность и вывести человечество на новый уровень развития. Поэтому нужно исследовать ИИ в части безопасности, для минимизации возможных угроз, рисков и их последствий.

Нужно понимать, что ИИ это всего лишь еще один инструмент в руках человека и как мы будем его использовать зависит только от нас самих.

Автор: Игорь Хмелёв @KeyMan
Источник: https://habr.com/