«Роботы-убийцы»: Хокинг, Маск и Возняк против автономного оружия
Знаменитые ученые подписали открытое письмо, предупреждающее людей об опасности искусственного интеллекта. Они, в частности, опасаются создания автономного оружия, ставшего реальностью благодаря развитию робототехники
Читать на полной версииБизнесмены и ученые призвали запретить автономное оружие. По мнению Стивена Хокинга, Илона Маска, Стива Возняка и более тысячи других экспертов в области искусственного интеллекта, предотвращение гонки автономных вооружений сегодня является главной задачей человечества.
В послании поясняется: «Вооруженный квадрокоптер, который сам ищет цель, — это автономное оружие, а крылатая ракета — нет, потому что решение за нее принимает человек». Открытое письмо с призывом запретить подобные вооружения было представлено на Объединенной конференции по искусственному интеллекту в Буэнос-Айресе. По мнению ученых, если не решить этот вопрос на международному уровне, произойдет «третья революция вооружений» после пороховой и ядерной.
За и против автономных вооружений приводится множество аргументов. К примеру, с одной стороны, они позволят сократить потери среди солдат, с другой — резко снизят издержки развязывания войны. Начать или предотвратить глобальную гонку вооружений с искусственным интеллектом? Это ключевой вопрос для человечества сегодня. Если любой глобальный игрок начнет развитие таких вооружений, гонка станет практически неизбежной, что приведет к очевидным последствиям: автономные вооружения станут «калашниковыми» будущего. В отличие от ядерного оружия, для их производства не будут требоваться редкие ресурсы и масштабные индустриальные комплексы. Все значимые военные игроки смогут начать не слишком затратное массовое производство автономных вооружений. И только вопрос времени — когда они появятся на черном рынке и попадут в руки террористов и диктаторов.
Революция автономных вооружений может произойти уже скоро. По мнению авторов письма, современные технологии позволят ввести в строй оружие на основе искусственного интеллекта в течение ближайших нескольких лет. С их оценкой не согласен научный сотрудник Центра анализа стратегий и технологий Андрей Фролов.
Андрей Фроловнаучный сотрудник Центра анализа стратегий и технологий«На сегодняшний день опасность, скорее, в какой-то гипотетической области находится, а не в практической, потому что все же те системы, которые есть, они довольно, если можно так выразиться, массивные, требуют специального оборудования, специальных помещений. То есть мы не берем каких-то маленьких роботов, которые где-то ездят, летают, это как бы сегодняшняя перспектива. Вот эта система искусственного интеллекта, она, наверное, угрозы не представляет, но вопрос в том, к чему она будет подключена, к какому поражающему устройству. То есть это может быть условно та же ракета, это может быть компьютерная сеть больничная или, например, транспортная. Вот здесь, наверное, риски присутствуют».
Однако есть российские эксперты, которые высказываются в поддержку открытого письма. Не нужно рисовать антиутопических картин по мотивам «Терминатора»: катастрофические сбои могут быть куда более прозаическими, говорит генеральный директор «Корпорации Роботов» Игорь Никитин.
Игорь Никитингендиректор «Корпорации Роботов»«Следует просто понять фантастический сценарий, когда создадут суперкомпьютер, который будет управлять всеми вооружениями, и он начинет бороться с человечеством. Очень много поговорок, связанных с капканом, о том, что поставил одному, попал другой. И чем больше будет развиваться эта система, тем больше шансов на то, что может произойти сбой. Для этого не нужно компьютеру осознавать себя. Нет достаточно простого сбоя, в котором перепутаются, например, метки между врагом и не врагом. И вот эта потеря контроля над автономными механизмами, над автономными роботами, это и пугает. Контроль и автономность — это два слова антиподы. То есть ты можешь контролировать и не контролируешь ситуацию. Поэтому, конечно, это колоссальная опасность в масштабах планеты, и в то же время это колоссальное искушение, когда такие боевые машины просто на порядок превосходят современные. И я боюсь, здесь, конечно, нужны какие-то межгосударственные договоренности о том, чтобы не развивать такие технологии».
Ранее на эту тему уже высказывались известные ученые. По мнению Стивена Хокинга, развитие наступательного автономного вооружения может привести к уничтожению человечества. Профессор Университета Нового Южного Уэльса Тоби Уолш призвал уже сегодня принять решение о будущем жителей Земли и запретить автономное оружие.
В апреле вооружение на основе искусственного интеллекта обсуждалось на конференции ООН в Женеве. Тогда, несмотря на призывы, против запрета на разработку выступила Великобритания.