Мошенники используют сгенерированные ИИ голоса для хищения денег и личных данных

МОСКВА, 11 января. //. Мошенники используют нейросети для создания текстового, визуального или аудиовизуального контента, который потом позволяет им от лица близких людей или доверенных лиц убеждать жертв переводить деньги или раскрывать персональные данные. Об этом сообщила официальный представитель МВД РФ Ирина Волк.

"В основе большинства таких схем лежит способность генеративных моделей создавать правдоподобный текстовый, визуальный или аудиовизуальный контент, который воспринимается потерпевшим как подлинный, что позволяет злоумышленникам имитировать личности доверенных лиц", - сказала она, добавив, что это могут быть родственники, сотрудники банков, представители государственных органов или публичные деятели.

Волк пояснила, что аферисты, используя синтезированные голоса или видеозаписи, могут провоцировать пользователей на переводы денег или раскрытие персональных данных. В качестве примера она рассказала, что неизвестный с целью хищения денег получил доступ к чужому аккаунту в иностранном мессенджере. Затем, используя нейросеть для генерации аудиоматериалов, отправил сообщение с этой страницы, используя голос этого человека, с просьбой оказать помощь и перевести 35 000 рублей через систему быстрых платежей.

Человек, которому было отправлено сообщение, решил, что просьба поступила от родной сестры, и перевел указанную сумму. Деньги в итоге попали в руки мошенникам. 

МОСКВА, 11 января. //. Мошенники используют нейросети для создания текстового, визуального или аудиовизуального контента, который потом позволяет им от лица близких людей или доверенных лиц убеждать жертв переводить деньги или раскрывать персональные…