16+
Суббота, 20 апреля 2024
  • BRENT $ 87.39 / ₽ 8166
  • RTS1173.68
28 июля 2015, 18:27 ТехнологииНаука

«Роботы-убийцы»: Хокинг, Маск и Возняк против автономного оружия

Лента новостей

Знаменитые ученые подписали открытое письмо, предупреждающее людей об опасности искусственного интеллекта. Они, в частности, опасаются создания автономного оружия, ставшего реальностью благодаря развитию робототехники

Фото: EPA/ТАСС

Бизнесмены и ученые призвали запретить автономное оружие. По мнению Стивена Хокинга, Илона Маска, Стива Возняка и более тысячи других экспертов в области искусственного интеллекта, предотвращение гонки автономных вооружений сегодня является главной задачей человечества.

В послании поясняется: «Вооруженный квадрокоптер, который сам ищет цель, — это автономное оружие, а крылатая ракета — нет, потому что решение за нее принимает человек». Открытое письмо с призывом запретить подобные вооружения было представлено на Объединенной конференции по искусственному интеллекту в Буэнос-Айресе. По мнению ученых, если не решить этот вопрос на международному уровне, произойдет «третья революция вооружений» после пороховой и ядерной.

За и против автономных вооружений приводится множество аргументов. К примеру, с одной стороны, они позволят сократить потери среди солдат, с другой — резко снизят издержки развязывания войны. Начать или предотвратить глобальную гонку вооружений с искусственным интеллектом? Это ключевой вопрос для человечества сегодня. Если любой глобальный игрок начнет развитие таких вооружений, гонка станет практически неизбежной, что приведет к очевидным последствиям: автономные вооружения станут «калашниковыми» будущего. В отличие от ядерного оружия, для их производства не будут требоваться редкие ресурсы и масштабные индустриальные комплексы. Все значимые военные игроки смогут начать не слишком затратное массовое производство автономных вооружений. И только вопрос времени — когда они появятся на черном рынке и попадут в руки террористов и диктаторов.

Революция автономных вооружений может произойти уже скоро. По мнению авторов письма, современные технологии позволят ввести в строй оружие на основе искусственного интеллекта в течение ближайших нескольких лет. С их оценкой не согласен научный сотрудник Центра анализа стратегий и технологий Андрей Фролов.

Андрей Фроловнаучный сотрудник Центра анализа стратегий и технологий«На сегодняшний день опасность, скорее, в какой-то гипотетической области находится, а не в практической, потому что все же те системы, которые есть, они довольно, если можно так выразиться, массивные, требуют специального оборудования, специальных помещений. То есть мы не берем каких-то маленьких роботов, которые где-то ездят, летают, это как бы сегодняшняя перспектива. Вот эта система искусственного интеллекта, она, наверное, угрозы не представляет, но вопрос в том, к чему она будет подключена, к какому поражающему устройству. То есть это может быть условно та же ракета, это может быть компьютерная сеть больничная или, например, транспортная. Вот здесь, наверное, риски присутствуют».

Ранее на эту тему уже высказывались известные ученые. По мнению Стивена Хокинга, развитие наступательного автономного вооружения может привести к уничтожению человечества. Профессор Университета Нового Южного Уэльса Тоби Уолш призвал уже сегодня принять решение о будущем жителей Земли и запретить автономное оружие.

В апреле вооружение на основе искусственного интеллекта обсуждалось на конференции ООН в Женеве. Тогда, несмотря на призывы, против запрета на разработку выступила Великобритания.

Рекомендуем:

Фотоистории

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию