В США разрабатывают систему, которая предвидит запуск ракет с ядерными боеголовками и отслеживает мобильные пусковые установки. Какие риски несет внедрение искусственного интеллекта в сферу ядерного оружия?
США начали развивать противоракетную защиту с использованием искусственного интеллекта. Об этом сообщает Reuters.
По данным агентства, система должна предвидеть запуск ракет с ядерным оружием, а также отслеживать и фиксировать в качестве целей мобильные пусковые установки в Северной Корее и в других странах.
Программа (вернее, программы — по данным Reuters, их несколько) глубоко засекречена, поэтому деталей не так много. Однако подобные разработки ведутся сейчас во многих странах, считает заместитель главного конструктора московского завода «Физприбор» Евгений Андропов:
Утверждается, что компьютерные системы Пентагона смогут анализировать огромные объемы данных со скоростью, которая недоступна людям. Но ведь компьютеры и так это делают в сто крат быстрее, чем люди. На ваш взгляд, в чем тогда разница?
Евгений Андропов: Алгоритмы — то, что мы привыкли относить к искусственному интеллекту, — развиваются, совершенствуются уже давно. Важно то, кто будет принимать решения. Не столь сложно обработать быстро большие объемы данных, сколь сложно разработать специальные алгоритмы обработки.
Недавно скончавшийся физик Стивен Хокинг, предприниматель Илон Маск, сооснователь «Гугл» Сергей Брин и ряд других, менее известных широкой публике исследователей, неоднократно высказывались о рисках. Вот тут предполагается его внедрение в сферу, напрямую связанную с ядерным оружием, что, собственно, заставляет вспомнить SkyNet из «Терминатора». Есть ли такие риски? И если да, то, собственно, в чем они заключаются? И, с другой стороны, как их избежать?
Евгений Андропов: Я, наверное, сами риски не стал бы комментировать, это классическое соревнование между снарядом и броней. Собственно, искусственный интеллект — это просто, наверное, следующий шаг в этом соревновании. Обе стороны будут применять искусственный интеллект.
Также утверждается, что американские военные получат время, чтобы уничтожить ракеты до их запуска. Встает ключевой вопрос: кто будет принимать финальное решение?
Евгений Андропов: Вряд ли кто-то хочет, чтобы коллективное самоубийство состоялось из-за ошибки программиста. Наверное, решения будут принимать люди, вот здесь уже вопрос в качестве подготовки специалистов — он, наверное, здесь ключевой. Эта тема, что называется, проходная. С другой стороны, можно припомнить программу стратегической оборонной инициативы. Американцы долго рекламировали эту программу, ничего, собственно говоря, они не воплотили, но тем не менее эти деньги не ушли впустую, был отработан целый ряд технологий.
По информации ряда официальных лиц США и бюджетных документов, на которые ссылается Reuters, администрация Трампа предложила более чем трехкратное увеличение финансирования всего лишь одной из программ по разработке искусственного интеллекта. В бюджете следующего года на это заложено 83 млн долларов.