Голосовым сообщениям больше нельзя доверять
Мошенники освоили технологии искусственного интеллекта и общаются с россиянами «клонированными» голосами друзей и родственников. Собеседники Business FM добавляют, что самые продвинутые вымогатели научились делать то же самое при звонках в реальном времени
Читать на полной версииМошенники начали вымогать деньги с помощью сгенерированных нейросетью голосовых сообщений, пишет РБК.
Все догадывались, что это
Найти бесплатный сервис клонирования голоса, работающий с русскоязычной речью, можно буквально за пару минут. Создание копии моего голоса по аудиофайлу одного из предыдущих сюжетов и заданному тексту заняло еще секунд 30.
По данным телеканала, в некоторых случаях злоумышленники просто нарезают старые аудио из аккаунта пользователя и отправляют полностью аутентичную речь, а просьбы выслать денег отправляют текстом. В любом случае до недавних пор аудиосообщение считалось
Роман Волков гендиректор IT-компании ITFB Group «Голосовое сообщение — действительно формат, к которому больше всего доверия, так как жертва мошенничества слышит голос человека, и если в речи нет настораживающих моментов, например нетипичных слов, обращений, то и повода для недоверия нет. Дополнительным фактором служит то, что голосовое сообщение приходит с аккаунта знакомого человека, человек по умолчанию верит отправителю и не обращает внимания на технические погрешности или необычные фразы в сообщении. Используются разные дополнительные уловки, например применяются бытовые шумы на заднем фоне, это позволяет мошенникам решить сразу две задачи: скрыть огрехи, которые есть в аудио, и повысить уровень доверия. Серия коротких голосовых сообщений также позволяет скрыть недочеты, но если человек не использует такой способ общения в обычной жизни, то это насторожит скорее жертву. Сгенерировать голос позволяют нейросети, доступные всем желающим в интернете за относительно небольшую плату, ей не нужно много файлов, она может подхватить голос с одной записи длительностью 10-15 секунд».
Даже притом что создание копии голоса может почти ничего не стоить, действительно массовым такой вид мошенничества вряд ли станет. Схема требует индивидуального подхода к каждому кейсу, а
С другой стороны, клонирование голоса можно использовать в более серьезных аферах, целью которых может быть конкретный человек. Об одном высокотехнологичном кейсе с генерацией голоса в реальном времени рассказывает гендиректор «
Как правило, жертвами мошенничества становятся пожилые люди. Быть может, новости об очередном технологическом прорыве вымогателей — это повод позвонить родителям или бабушке с дедушкой и рассказать о том, что неожиданным просьбам прислать деньги не стоит доверять. Даже если просят вашим голосом.