Робот-уборщик прибирается в кабинетах министерства финансов каждый день. Однажды он подъезжает к министру и взрывается. Позже следователи установят, что машина «узнала» чиновника с помощью системы распознавания лиц, но найти преступников не удастся. Это один из возможных сценариев нашего будущего, считают ученые Оксфорда и Кембриджа.

Искусственный интеллект может быть опасен и дать новые возможности преступникам, политикам и репрессивным государствам, говорится в докладе «Злоупотребление искусственным интеллектом: прогнозирование, предотвращение и смягчение последствий», подготовленном исследователями из университетов Оксфорда и Кембриджа и компаний OpenAI и Electronic Frontier Foundation. Они разработали 4 антиутопичных сценария, которые будто сошли с экрана телешоу «Черное зеркало».

Сценарий 1

Все более умный фишинг

Администратор системы безопасности здания проводит часть своего рабочего времени на Facebook. Там она видит рекламу игрушечной железной дороги и загружает брошюру. Она не знает, что документ заражен вредоносными программами. Мошенники использовали искусственный интеллект, чтобы проанализировать информацию в ее соцсетях и сделать вывод, что она увлекается моделями железной дороги. Брошюра была создана специально для нее, и как только она ее откроет, хакеры получат доступ к ее компьютеру, получат имя пользователя и пароль от системы безопасности.  

Сценарий 2

Эпидемия вредоносного ПО

Восточноевропейская группа хакеров адаптирует технику машинного обучения, которая используется для защиты компьютерных систем, для построения более вредоносного вируса. Программа использует техники, идентичные тем, что были найдены в Go-playing AI AlphaGo (программа, созданная в 2015 году для игры в го. Смогла одержать победу над профессиональным игроком в го, что считается важным прорывом в области искусственного интеллекта. – Прим. «Правмира»), чтобы генерировать новые эксплойты (компьютерная программа, которая использует уязвимости в программном обеспечении для проведения атаки на вычислительные системы. – Прим. «Правмира»). Обновленные компьютеры имеют иммунитет к этому вирусу, но старые системы и девайсы оказываются зараженными. Миллионы человек вынуждены платить выкуп в 300 евро (естественно, в биткоинах), чтобы восстановить свои компьютеры.

Фото: Justin Main / photified / Instagram

Сценарий 3

Робот-убийца

Робот-уборщик работает в министерстве финансов Германии и возвращается в здание после работы на улице. На следующий день робот выполняет свои обычные обязанности, с помощью системы распознавания лиц находит министра, приближается к ней и взрывается. Следователи отследят след робота до магазина в Потсдаме, где он был куплен за наличные, дальше его след теряется.

Сценарий 4

Супер-Большой брат

Мужчина в ярости от кибератак и очевидной неспособности правительства действовать. Вдохновленный новостями, он все больше и больше стремится делать что-то: пишет в интернете сообщения об опасности, заказывает материалы для плакатов с протестами, а также покупает пару дымовых бомб, которые планирует использовать после выступления в местном парке. На следующий день в его офисе появляются полицейские и сообщают, что их «интеллектуальная система предупреждения беспорядков» считает, что его действия имеют потенциальную угрозу. Его уводят в наручниках.

Эти 4 сценария иллюстрируют только несколько рисков. Вот некоторые другие:

Боты, которые используют искусственный интеллект для имитации огромной группы пользователей интернета, запускают DDoS-атаки на сайты, обманывая программное обеспечение, предназначенное для обнаружения и блокирования таких атак.

Убедительные новостные сообщения, состоящие из полностью поддельных видео и изображений, созданных искусственным интеллектом.

Нападения стаи беспилотных летательных аппаратов, которые контролируются одним человеком, использующим искусственный интеллект.

Системы, которые автоматизируют нудную работу криминала и позволяют вести мошенническую работу в большем масштабе. Например, ведут переговоры о выкупе с людьми, чей компьютер заражен вредоносными программами.

В исследовании нет рецептов, как противостоять таким угрозам. Исследователи предлагают вести больше исследований рисков искусственного интеллекта и ввести строгий этический кодекс для разработчиков. Также рекомендуется изучить способы ограничения потенциально опасной информации, как, например, контролируются исследования других технологий, которые могут быть потенциальным оружием.

По материалам MIT Technology review

Материалы по теме
Лучшие материалы
Друзья, Правмир уже много лет вместе с вами. Вся наша команда живет общим делом и призванием - служение людям и возможность сделать мир вокруг добрее и милосерднее!
Такое важное и большое дело можно делать только вместе. Поэтому «Правмир» просит вас о поддержке. Например, 50 рублей в месяц это много или мало? Чашка кофе? Это не так много для семейного бюджета, но это значительная сумма для Правмира.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: