Мошенники все активнее используют искусственный интеллект
С помощью технологий злоумышленники имитируют голос родственника или друга потенциальной жертвы
Киберпреступники и телефонные мошенники начали активно использовать современные технологии искусственного интеллекта для создания дипфейков и их применения в отработанных схемах. Об этом рассказал телеграм-канал «Вестник Киберполиции России» со ссылкой на заместителя председателя правления Сбербанка Станислава Кузнецова.
Дипфейк – это современная технология, позволяющая с помощью искусственного интеллекта и нейросети изменить внешность и голос человека. По словам Кузнецова, мошенники все чаще используют этот инструмент в социальных сетях или мессенджерах, когда от имени владельца учетной записи рассылают просьбы о финансовой поддержке всему списку контактов.
Для того чтобы убедить получателей в правдоподобности такой просьбы, применяются заранее созданные с помощью искусственного интеллекта голосовые сообщения, которые имитируют голос отправителя – как правило, родственника или друга жертвы. Эти сообщения создаются на основе образцов голоса, которые киберпреступники предварительно находят в истории переписки в скомпрометированном аккаунте.
По словам сотрудника Сбербанка, антимошенническая система финансового учреждения обнаруживает денежные переводы на подменные реквизиты и блокирует их независимо от того, применялся дипфейк для обмана человека или нет.
Ранее «Курьер-Медиа» рассказывал, как мошенники требуют у россиян погасить долги перед государством и обманывают граждан от имени маркетплейсов.
Другие материалы
По информации силовиков, женщина стала жертвой телефонных мошенников
Конфликт на дороге обернулся выстрелом, стрелок в розыске
Юрий Куликов шуточной акцией хотел вдохновить коллег
На период расследования ему назначен запрет определенных действий