16+
Понедельник, 23 декабря 2024
  • BRENT $ 72.98 / ₽ 7469
  • RTS812.12
10 января 2024, 20:53 Технологии

Голосовым сообщениям больше нельзя доверять

Лента новостей

Мошенники освоили технологии искусственного интеллекта и общаются с россиянами «клонированными» голосами друзей и родственников. Собеседники Business FM добавляют, что самые продвинутые вымогатели научились делать то же самое при звонках в реальном времени

Фото: Mikhail Davidovich/Фотобанк Лори

Мошенники начали вымогать деньги с помощью сгенерированных нейросетью голосовых сообщений, пишет РБК.

Все догадывались, что это вот-вот произойдет, — нейросети умеют генерировать правдоподобные голоса уже несколько лет — и вот свершилось. Как пишет РБК, под ударом оказались российские пользователи Telegram — злоумышленники уводят чей-то аккаунт, «клонируют» голос владельца и отправляют «мамам» и «любимым» голосовые сообщения с просьбами о финансовой помощи.

Найти бесплатный сервис клонирования голоса, работающий с русскоязычной речью, можно буквально за пару минут. Создание копии моего голоса по аудиофайлу одного из предыдущих сюжетов и заданному тексту заняло еще секунд 30.

По данным телеканала, в некоторых случаях злоумышленники просто нарезают старые аудио из аккаунта пользователя и отправляют полностью аутентичную речь, а просьбы выслать денег отправляют текстом. В любом случае до недавних пор аудиосообщение считалось чем-то вроде электронной подписи — мол, да, это точно я. А теперь уже нет, продолжает гендиректор IT-компании ITFB Group Роман Волков:

Роман Волков гендиректор IT-компании ITFB Group «Голосовое сообщение — действительно формат, к которому больше всего доверия, так как жертва мошенничества слышит голос человека, и если в речи нет настораживающих моментов, например нетипичных слов, обращений, то и повода для недоверия нет. Дополнительным фактором служит то, что голосовое сообщение приходит с аккаунта знакомого человека, человек по умолчанию верит отправителю и не обращает внимания на технические погрешности или необычные фразы в сообщении. Используются разные дополнительные уловки, например применяются бытовые шумы на заднем фоне, это позволяет мошенникам решить сразу две задачи: скрыть огрехи, которые есть в аудио, и повысить уровень доверия. Серия коротких голосовых сообщений также позволяет скрыть недочеты, но если человек не использует такой способ общения в обычной жизни, то это насторожит скорее жертву. Сгенерировать голос позволяют нейросети, доступные всем желающим в интернете за относительно небольшую плату, ей не нужно много файлов, она может подхватить голос с одной записи длительностью 10-15 секунд».

Даже притом что создание копии голоса может почти ничего не стоить, действительно массовым такой вид мошенничества вряд ли станет. Схема требует индивидуального подхода к каждому кейсу, а какие-нибудь фишинговые письма можно рассылать сразу миллионам адресатов.

С другой стороны, клонирование голоса можно использовать в более серьезных аферах, целью которых может быть конкретный человек. Об одном высокотехнологичном кейсе с генерацией голоса в реальном времени рассказывает гендиректор «А-Я эксперт» Роман Душкин:

Роман Душкин Роман Душкин гендиректор компании — разработчика искусственного интеллекта «А-Я эксперт» «В моем ближайшем окружении родственники столкнулись с таким видом мошенничества: позвонили с неизвестного номера, и был голос именно родственника, который был неотличим. Другое дело, что этот родственник сидел прямо рядом с нами, это и спасло ситуацию. То есть нужно быть начеку, чтобы не поддаваться на подобного рода попытки вас обмануть. Принципы кибербезопасности сегодня должны знать все и каждый. И самый простой: если вам поступил звонок с неизвестного номера, который вы не знаете, звонящий представляется вашим родственником и говорит, что «я попал в аварию, нужно срочно перечислить деньги», вероятно, вас хотят обмануть. Как только речь заходит о перечислении денег куда-либо — это первый признак того, что вас хотят обмануть. Не надо вестись на эмоциональные угрозы, просьбы и прочее. Каким бы голосом это ни говорили. Следующий этап — звонок по видеосвязи, где сгенерированное изображение вашего близкого будет с нытьем в голосе и слезами на глазах что-то просить».

Как правило, жертвами мошенничества становятся пожилые люди. Быть может, новости об очередном технологическом прорыве вымогателей — это повод позвонить родителям или бабушке с дедушкой и рассказать о том, что неожиданным просьбам прислать деньги не стоит доверять. Даже если просят вашим голосом.

Рекомендуем:

Фотоистории

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию