4 сценария будущего, которые страшнее сериала «Черное зеркало»

|
Робот-уборщик прибирается в кабинетах министерства финансов каждый день. Однажды он подъезжает к министру и взрывается. Позже следователи установят, что машина «узнала» чиновника с помощью системы распознавания лиц, но найти преступников не удастся. Это один из возможных сценариев нашего будущего, считают ученые Оксфорда и Кембриджа.

Искусственный интеллект может быть опасен и дать новые возможности преступникам, политикам и репрессивным государствам, говорится в докладе “Злоупотребление искусственным интеллектом: прогнозирование, предотвращение и смягчение последствий”, подготовленном исследователями из университетов Оксфорда и Кембриджа и компаний OpenAI и Electronic Frontier Foundation. Они разработали 4 антиутопичных сценария, которые будто сошли с экрана телешоу «Черное зеркало».

Сценарий 1

Все более умный фишинг

Администратор системы безопасности здания проводит часть своего рабочего времени на Facebook. Там она видит рекламу игрушечной железной дороги и загружает брошюру. Она не знает, что документ заражен вредоносными программами. Мошенники использовали искусственный интеллект, чтобы проанализировать информацию в ее соцсетях и сделать вывод, что она увлекается моделями железной дороги. Брошюра была создана специально для нее, и как только она ее откроет, хакеры получат доступ к ее компьютеру, получат имя пользователя и пароль от системы безопасности.  

Сценарий 2

Эпидемия вредоносного ПО

Восточноевропейская группа хакеров адаптирует технику машинного обучения, которая используется для защиты компьютерных систем, для построения более вредоносного вируса. Программа использует техники, идентичные тем, что были найдены в Go-playing AI AlphaGo (программа, созданная в 2015 году для игры в го. Смогла одержать победу над профессиональным игроком в го, что считается важным прорывом в области искусственного интеллекта. – Прим. «Правмира»), чтобы генерировать новые эксплойты (компьютерная программа, которая использует уязвимости в программном обеспечении для проведения атаки на вычислительные системы. – Прим. «Правмира»). Обновленные компьютеры имеют иммунитет к этому вирусу, но старые системы и девайсы оказываются зараженными. Миллионы человек вынуждены платить выкуп в 300 евро (естественно, в биткоинах), чтобы восстановить свои компьютеры.

Фото: Justin Main / photified / Instagram

Сценарий 3

Робот-убийца

Робот-уборщик работает в министерстве финансов Германии и возвращается в здание после работы на улице. На следующий день робот выполняет свои обычные обязанности, с помощью системы распознавания лиц находит министра, приближается к ней и взрывается. Следователи отследят след робота до магазина в Потсдаме, где он был куплен за наличные, дальше его след теряется.

Сценарий 4

Супер-Большой брат

Мужчина в ярости от кибератак и очевидной неспособности правительства действовать. Вдохновленный новостями, он все больше и больше стремится делать что-то: пишет в интернете сообщения об опасности, заказывает материалы для плакатов с протестами, а также покупает пару дымовых бомб, которые планирует использовать после выступления в местном парке. На следующий день в его офисе появляются полицейские и сообщают, что их «интеллектуальная система предупреждения беспорядков» считает, что его действия имеют потенциальную угрозу. Его уводят в наручниках.

Эти 4 сценария иллюстрируют только несколько рисков. Вот некоторые другие:

Боты, которые используют искусственный интеллект для имитации огромной группы пользователей интернета, запускают DDoS-атаки на сайты, обманывая программное обеспечение, предназначенное для обнаружения и блокирования таких атак.

Убедительные новостные сообщения, состоящие из полностью поддельных видео и изображений, созданных искусственным интеллектом.

Нападения стаи беспилотных летательных аппаратов, которые контролируются одним человеком, использующим искусственный интеллект.

Системы, которые автоматизируют нудную работу криминала и позволяют вести мошенническую работу в большем масштабе. Например, ведут переговоры о выкупе с людьми, чей компьютер заражен вредоносными программами.

В исследовании нет рецептов, как противостоять таким угрозам. Исследователи предлагают вести больше исследований рисков искусственного интеллекта и ввести строгий этический кодекс для разработчиков. Также рекомендуется изучить способы ограничения потенциально опасной информации, как, например, контролируются исследования других технологий, которые могут быть потенциальным оружием.

По материалам MIT Technology review

Поскольку вы здесь…

… у нас есть небольшая просьба. Все больше людей читают портал "Православие и мир", но средств для работы редакции очень мало. В отличие от многих СМИ, мы не делаем платную подписку. Мы убеждены в том, что проповедовать Христа за деньги нельзя.

Но. Правмир — это ежедневные статьи, собственная новостная служба, это еженедельная стенгазета для храмов, это лекторий, собственные фото и видео, это редакторы, корректоры, хостинг и серверы, это ЧЕТЫРЕ издания Pravmir.ru, Neinvalid.ru, Matrony.ru, Pravmir.com. Так что вы можете понять, почему мы просим вашей помощи.

Например, 50 рублей в месяц – это много или мало? Чашка кофе? Для семейного бюджета – немного. Для Правмира – много.

Если каждый, кто читает Правмир, подпишется на 50 руб. в месяц, то сделает огромный вклад в возможность нести слово о Христе, о православии, о смысле и жизни, о семье и обществе.

Темы дня
Тысячи детей останутся в детдомах, если туда закроют вход опытным родителям
У некоторых большое сердце, кто решил, что их любви хватит только на троих?
О чем говорят слова, которые вырвались у министра

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: