Дипфейки идут в массы и начинают нести масштабные угрозы
Лента новостей
В сети появилось первое коммерческое приложение по созданию реалистичных фейковых изображений: программа позволяет «раздеть» любую женщину на фотографии
Deepfake — название поддельных видеозаписей и изображений, сделанных с использованием искусственного интеллекта. Технология существует уже несколько лет и постоянно совершенствуется.
Начиналось все с плохо вмонтированных лиц знаменитостей в порнографии; в прошлом году вполне похожий на себя Барак Обама голосом пародиста Джордана Пила обозвал Трампа куском сами-знаете-чего; сегодня дипфейки успешно используют для политических и корпоративных атак.
Несколько недель назад Дональд Трамп ретвитнул замедленное и искаженное видео спикера палаты представителей Нэнси Пелоси, в котором демократка кажется пьяной. В конгрессе были назначены слушания — и прямо накануне заседания неизвестные опубликовали впечатляюще реалистичный дипфейк Марка Цукерберга, в котором тот рассказывает, что он контролирует будущее человечества, благодаря некому «Спектру». Дальше — хуже, продолжает в программе CBS профессор Дартмутского колледжа Хэни Фарид.
С появлением программы для раздевания изображений женщин — пиарить ее мы не будем, а желающие исполнить подростковую мечту о рентгеновских очках и так все найдут — дипфейки становятся доступны не только специалистам. Бесплатная версия программы оставляет на снимках вотермарк с адресом сайта и словом «фейк», платная обойдется в 99 долларов и делает вотермарки почти прозрачными. Анонимный создатель приложения заявил Verge, что ничего плохого в этом нет — то же самое можно сделать в Photoshop, посмотрев обучающий ролик в интернете.
Тем не менее это успешный кейс коммерциализации технологии, за которым последуют инвестиции и повышение качества. Дальнейшие сценарии представить легко. Например, многие вполне поверят появлению видеообращения, в котором пьяный Илон Маск признается в банкротстве компании — коллапс стоимости акций, потери инвесторов. С другой стороны, в самих подобных фейках нет ничего нового, продолжает руководитель Центра искусственного интеллекта МТС Аркадий Сандлер.
Аркадий Сандлер руководитель Центра искусственного интеллекта МТС «Как это отличается от заказной статьи с плохими новостями про компанию, которую разместили в каком-то медиаресурсе? Рынок отреагирует все равно. Да, технологии становятся все круче и круче, но люди не меняются, меняются обстоятельства. Надо перепроверять информацию, даже если тебе кажется, что все гарантировано и сто процентов. Здесь я пока не вижу никаких других способов от этого защищаться. Точно так же, как когда мы читаем какую-то статью, у нас должно быть какое-то разумное критическое мышление».
Поможет и гонка вооружений в области дипфейков. Например, на этой неделе лаборатория компьютерного зрения Университета штата Нью-Йорк в Олбани представила сразу два алгоритма. Один выявляет дипфейки по графическим артефактам, другой добавляет на ваши фотографии незаметные фильтры, которые запутывают алгоритм и не позволяют создать дипфейк с вашим лицом. Вообще, дипфейки отличаются от уже привычных текстовых фейков разве что тем, что публике они в новинку. А один из способов предотвратить распространение дезинформации — предупредить человека, что его попытаются обмануть. Чем мы и занимаемся.