16+
Воскресенье, 24 ноября 2024
  • BRENT $ 75.28 / ₽ 7722
  • RTS792.67
12 февраля 2024, 14:48 Общество

ВТБ: мошенники используют голосовые сообщения из взломанных аккаунтов в мессенджерах

Лента новостей

Используя старые голосовые сообщения, мошенники входят в доверие к друзьям владельца взломанного аккаунта и просят от его имени перевести деньги. В ВТБ рекомендуют пользователям удалять старые голосовые сообщения

Фото: DPA/ТАСС

Мошенники стали использовать голосовые сообщения из взломанных аккаунтов. Таким образом они втираются в доверие к знакомым жертвы и пытаются получить деньги от собеседников.

О схеме сообщили в ВТБ. Цепочка, по заявлению банка, выглядит так: сначала мошенники взламывают аккаунт человека в мессенджере, смотрят сообщения знакомым и кoллегам. Затем вступают в переписку с подходящим человеком, могут ссылаться на прошлые темы и факты в беседах, а также копируют старые голосовые сообщения. В итоге просят перевести деньги из-за какого-то форс-мажора, указывает РБК.

Также мошенники могут брать эти голосовые сообщения и на их основе генерировать озвучку любого текста нужным голосом, говорит бизнес-консультант по информационной безопасности компании Positive Technologies Алексей Лукацкий:

— Получить голос можно двумя основными способами. Первый — взломать учетную запись пользователя в каком-либо мессенджере при условии, что пользователь уже достаточно активно использовал голосовые сообщения, и в этом случае, получив доступ к учетной записи, злоумышленники получают доступ ко всем голосовым сообщениям, которые можно использовать как входную информацию для инструментов на базе искусственного интеллекта для синтезации голоса жертвы. Второй, особенно, если это касается известных людей, высокопоставленных сотрудников, которые активно дают интервью для СМИ, — в этом случае даже взламывать ничего не требуется, достаточно просто скачать в хорошем качестве ролик соответствующий. Стоит это копейки, при наличии достаточно мощного компьютера это можно сделать даже дома. Я лично пробовал для демонстрации такого рода возможностей создавать дипфейки голосовые и видео, и для этого достаточно обычного ноутбука, соответствующего ПО, которое скачивается из интернета, и таких моделей выложено сегодня немало.

— Как это общение может проходить, подменяется голос в реальном времени или какие-то заранее записаны фразы?


— В массе случаев сегодня пока используются только предзаписанные сообщения. Случаи с реальной подменой, такие тоже уже известны, носят пока единичный характер, потому что требуют гораздо более сложного программного обеспечения, которое на лету генерит соответствующие тексты.

Ранее мошенники обманули компанию из Гонконга почти на 26 млн долларов. Они сделали это уникальным способом — с помощью группового дипфейка. Сотрудник компании перешел по ссылке на видеоконференцию, где директор и другие сотрудники просили его перевести средства на указанные счета. Только потом выяснилось, что на этой встрече только сам обманутый сотрудник был настоящим. Остальные участники были сгенерированы по технологии дипфейк — их лица и голоса были подделаны. Мошенники до сих пор не найдены, а деньги вернуть не удалось, пишут китайские СМИ.

Рекомендуем:

Фотоистории

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию