Мошенники все активнее используют искусственный интеллект
С помощью технологий злоумышленники имитируют голос родственника или друга потенциальной жертвы
Киберпреступники и телефонные мошенники начали активно использовать современные технологии искусственного интеллекта для создания дипфейков и их применения в отработанных схемах. Об этом рассказал телеграм-канал «Вестник Киберполиции России» со ссылкой на заместителя председателя правления Сбербанка Станислава Кузнецова.
Дипфейк – это современная технология, позволяющая с помощью искусственного интеллекта и нейросети изменить внешность и голос человека. По словам Кузнецова, мошенники все чаще используют этот инструмент в социальных сетях или мессенджерах, когда от имени владельца учетной записи рассылают просьбы о финансовой поддержке всему списку контактов.
Для того чтобы убедить получателей в правдоподобности такой просьбы, применяются заранее созданные с помощью искусственного интеллекта голосовые сообщения, которые имитируют голос отправителя – как правило, родственника или друга жертвы. Эти сообщения создаются на основе образцов голоса, которые киберпреступники предварительно находят в истории переписки в скомпрометированном аккаунте.
По словам сотрудника Сбербанка, антимошенническая система финансового учреждения обнаруживает денежные переводы на подменные реквизиты и блокирует их независимо от того, применялся дипфейк для обмана человека или нет.
Ранее «Курьер-Медиа» рассказывал, как мошенники требуют у россиян погасить долги перед государством и обманывают граждан от имени маркетплейсов.
Другие материалы
Полиция оценивает ущерб от его действий практически в 175 млн рублей
Смольный, депутат ЗакСа и градозащитники требуют остановить уничтожение исторического комплекса зданий
Полиция считает, что вещества попали в воду из распиленного судна
Специалисты Водоканала обновили конструкции чаш и установили архитектурные светильники