Мошенничество с использованием дипфейков достигло масштабов, заслуживающих внимания Центробанка России. Как предупредили в ЦБ, злоумышленники все чаще используют искусственно сгенерированные аудиозаписи или даже полноценные видеоподделки, чтобы вводить россиян в заблуждение и выманивать у них сбережения. Сообщается, что, как правило, мошенники используют изображения друзей и родных, но бывают и случаи с дипфейками работодателей, сотрудников госорганов или известных фигур из той сферы, где трудится потенциальная жертва.

Что может сделать государство, чтобы защитить граждан от новых методов мошенничества? Отрезвляющий комментарий дает гендиректор компании Phishman, эксперт по информационной безопасности Алексей Горелкин:

Алексей Горелкин эксперт по информационной безопасности, гендиректор Phishman «Государство в этом плане не может сделать ничего, потому что искусственный интеллект представляет собой инструмент, который может быть даже опенсорсный. Сейчас есть уже очень хорошие опенсорсные модели, которые каждый желающий может развернуть у себя на компьютере и делать дипфейки очень хорошего качества. Поэтому регуляторика здесь не поможет, потому что если это опенсорс, вы всегда можете найти то, что маркирует тот или иной контент тем или иным водяным знаком, и просто убрать этот кусок кода. Поэтому нельзя сказать, что регуляторика поможет именно в борьбе с дипфейками, когда вам звонят, когда подделывается голос либо подделывается лицо. Тот самый случай, как говорит суд, когда спасение утопающих — дело рук самих утопающих».

Для защиты от мошеннической схемы Банк России дает ряд рекомендаций. Во-первых, неожиданные сообщения с просьбами о деньгах следует тщательно изучать на предмет так называемых артефактов: неестественной мимики, монотонной речи или дефектов звука. Во-вторых, лучше попробовать связаться с человеком по другому каналу — телефон, видеозвонок и так далее, — потому что злоумышленники вряд ли взломали сразу все аккаунты вашего собеседника. Наконец, можно задать личный вопрос, ответ на который вряд ли будет известен незнакомцу: где вы в последний раз виделись, о чем говорили, как познакомились. И главное: нужно быть готовым к тому, что запись будет крайне правдоподобной.

Продолжает управляющий RTM Group, эксперт в области информационной безопасности и права в IT Евгений Царев:

Евгений Царев управляющий RTM Group, эксперт в области информационной безопасности и права в IT «Инструментарий, которым сейчас уже могут пользоваться злоумышленники, таков, что сделать голос, который не отличат ребенок, родители от вашего оригинального, — это реальность. Такие инструментарии у злоумышленника есть. То же самое с видеоконтентом. В принципе, сейчас можно еще позвонить человеку после того, как пришло какое-то сообщение, и спросить, он ли это. По большому счету больше вариантов нет. Мне ребята специально сделали мой сгенеренный голос — с видео на YouTube сгенерировали и прислали. Я слушаю, думаю: «Хрень какая-то, вообще не похоже». Показал родителям и детям, все сказали: «Это ты». Поэтому кроме обучения, образования, просвещения ничего не остается. Собственно, мы с вами это сейчас и делаем».

В начале года источники «Ведомостей» сообщили о проработке Минцифры, МВД и Роскомнадзором вопросов правового регулирования технологий цифровой подмены личности, то есть дипфейков. Одним из первопроходцев в этой области в прошлом году стал Китай, где в силу вступила директива о регулировании генеративных сервисов. Среди прочего провайдеров обязали маркировать сгенерированный контент и идентифицировать пользователей по номерам телефонов и паспортам. Проблема в том, что даже за «Великим китайским фаерволом» злоумышленникам ничто не мешает найти иностранный генератор без функции маркировки или скачать инструмент с открытым кодом и клепать дипфейки в свое удовольствие.

Так что пока, до появления надежных и распространенных инструментов автоматического выявления ИИ-контента, защитить бабушку с дедушкой от мошенников могут только предостережение Центробанка и внук, который им об этом расскажет.

На этой неделе стало известно, что дипфейками пользовались в том числе мошенники, жертвами которых стала Лариса Долина. Как рассказал СМИ представитель певицы, отдельно от схемы с продажей квартиры злоумышленники пытались получить кредит на имя Долиной с помощью фейкового видео с ее лицом. В МВД сообщили, не называя имени певицы, что потерпевшую обманом уговорили переслать деньги от продажи недвижимости мошенникам. Сама Долина заявила, что злоумышленики действовали с территории Украины.