Почему в США говорят об «экзистенциальной угрозе» ИИ, а в ЕС его будут классифицировать?
Громкие заявления об опасности искусственного интеллекта содержатся в докладе, подготовленном по заказу Госдепартамента. Одновременно Европарламент принял закон о рисках искусственного интеллекта — от «низкого» до «неприемлемого»
Читать на полной версииДоклад о рисках искусственного интеллекта был подготовлен для Госдепартамента США компанией Gladstone AI. Хотя в названии фирмы можно увидеть иронию, на деле документ об угрозе ИИ готовил не сам ИИ.
За год авторы доклада провели более сотни интервью со специалистами из профильных областей: от глав компаний — разработчиков искусственного интеллекта и экспертов по кибербезопасности до исследователей оружия массового поражения и действующих сотрудников американских спецслужб. Начинается доклад с места в карьер: «Недавний взрыв прогресса в разработке продвинутого ИИ принес огромные возможности, но также создает полностью новые катастрофические риски, подобные оружию массового поражения». И сноска: «Под катастрофическими рисками имеются в виду риски катастрофических событий, вплоть до вымирания человечества».
Хотя в Госдепартаменте подчеркивают, что мнение исследователей может не отражать позиции Вашингтона, пора ли копать бункеры? Комментирует главный архитектор ИИ-систем исследовательского центра ИИ по направлению «Транспорт и логистика» НИЯУ МИФИ Роман Душкин:
«Я буквально сегодня был на дне искусственного интеллекта, на выставке-форуме «Россия» на ВДНХ, которая в Москве проходит, и там тоже говорили об экзистенциальных кризисах для человечества, искусственный интеллект, все дела. Честно говоря, меня вот это немножко смущает, потому что, возможно, если человек в конце концов сделает систему искусственного интеллекта, которая будет обладать самосознанием, собственной волей, автономностью принятия решений, возможно, это будет какой-то экзистенциальный риск, но не факт, что эта система будет всемогущей. Возможно, она будет также ограниченна в своих возможностях, как и обычный человек. Искусственный интеллект позволяет нам создавать инструменты, которые мы используем, их применение может быть во благо или во зло, только применяющая рука может иметь какое-то намерение, злое или хорошее, доброе или плохое».
В конструктивном русле авторы доклада советуют властям успеть воспользоваться «ускользающей возможностью» ввести строгое регулирование ИИ, вплоть до утверждения правил разработки таких систем и создания «межведомственной службы» для контроля за их соблюдением. Пока в США только думают о мерах, в ЕС их утверждают. В среду Европарламент одобрил закон о регулировании искусственного интеллекта. Среди прочего документ подразумевает, что ИИ-технологиям будет централизованно присваиваться степень риска от «низкой» до «неприемлемой». Под запрет попадут, в частности, распознавание лиц в режиме реального времени, распознавание эмоций на рабочем месте и в школах, а также социальный скоринг граждан. Европейский подход оценивает гендиректор компании «Промобот» Максим Чугунов:
Максим Чугунов гендиректор компании «Промобот» «Если на это смотреть под призмой не самих технологий, а регулирования их применимости и использования, то мне кажется, в этом есть здравое зерно. Есть технологии, а есть применение технологий и есть принятие решений либо технологиями, либо человеком на основании данных, которые технология предоставила. Если какую-то аналогию проводить, есть калькулятор, есть компьютеры, и мы за ними работаем, это тоже технологии. При этом, например, компьютер можно запрограммировать таким образом, что он произведет действия, запустит бомбу какую-то, неважно, какие-то могут быть последствия, но при этом технология компьютера не является в моменте чем-то смертоносным по большому счету».
В любом случае время на размышление у властей и регуляторов может быть ограниченным. Как заявил Илон Маск, искусственный интеллект, «скорее всего, станет умнее любого человека» уже в будущем году. Нужно отметить, что это не программное заявление, а комментарий в соцсетях.
Но если Маск прав, то через годик-другой размышлять над регулированием уже будут не чиновники, а машины. Просто потому, что у них лучше получается.