«Декларация Блетчли»: подписана почти всемирная декларация о «катастрофических» рисках ИИ
Документ, клеймящий опасности искусственного интеллекта, согласовали Китай, США, Евросоюз и десятки других крупных экономик. Откуда такой консенсус?
Читать на полной версииДокумент о безопасности искусственного интеллекта, подписанный на саммите в Британии делегациями сразу трех сверхдержав и массы региональных игроков, получил название «декларация Блетчли» — по месту проведения мероприятия, особняку Блетчли-парк, где 70 лет назад Алан Тьюринг взламывал шифр «Энигмы».
Текст пестрит громкими заявлениями: ИИ открывает «невероятные возможности» по укреплению мира и благополучия, но сопутствующие его развитию риски, в особенности в сферах кибербезопасности и биотехнологий, должны быть немедленно учтены, а продвинутый интеллект «представляет особую угрозу» для человечества и «обладает потенциалом нанесения катастрофического ущерба, будь то намеренно или случайно». Участники обязуются выявлять соответствующие риски и сотрудничать в их нейтрализации в рамках «многосторонней, несколькосторонней и двусторонней кооперации». Благие намерения оценивает гендиректор компании — разработчика искусственного интеллекта «А-Я эксперт» Роман Душкин:
Привлекает внимание, что в документе о необходимости контроля за ИИ отсутствуют даже намеки на правила такого регулирования. Стороны подписались под довольно обтекаемыми словами, сделали несколько красивых заявлений — например, миллиардер Илон Маск на полях саммита предупредил о появлении сущностей, которые будут «куда умнее умнейших из людей» и которых «неясно, как контролировать», — и договорились встретиться через полгода. О значении мероприятия рассуждает председатель совета Фонда развития цифровой экономики Герман Клименко:
Тем не менее само количество желающих хотя бы подписаться за весь хороший искусственный интеллект и против всего плохого не может не впечатлять. Подписанты — от США, Китая и Евросоюза до Японии, Индии, Турции, Бразилии и Арабских Эмиратов — представляют 60% мирового населения и почти 90% мирового ВВП.
Следующий саммит по безопасности ИИ — наверное, без «Трех законов робототехники» Азимова, но, быть может, хоть с каким-то реальным регулированием — пройдет весной будущего года в Южной Корее, затем еще через полгода во Франции. Если, конечно, к тому времени странами еще не будут управлять наши новые электрические оверлорды.