Мошенники все активнее используют искусственный интеллект
С помощью технологий злоумышленники имитируют голос родственника или друга потенциальной жертвы

Киберпреступники и телефонные мошенники начали активно использовать современные технологии искусственного интеллекта для создания дипфейков и их применения в отработанных схемах. Об этом рассказал телеграм-канал «Вестник Киберполиции России» со ссылкой на заместителя председателя правления Сбербанка Станислава Кузнецова.
Дипфейк – это современная технология, позволяющая с помощью искусственного интеллекта и нейросети изменить внешность и голос человека. По словам Кузнецова, мошенники все чаще используют этот инструмент в социальных сетях или мессенджерах, когда от имени владельца учетной записи рассылают просьбы о финансовой поддержке всему списку контактов.
Для того чтобы убедить получателей в правдоподобности такой просьбы, применяются заранее созданные с помощью искусственного интеллекта голосовые сообщения, которые имитируют голос отправителя – как правило, родственника или друга жертвы. Эти сообщения создаются на основе образцов голоса, которые киберпреступники предварительно находят в истории переписки в скомпрометированном аккаунте.
По словам сотрудника Сбербанка, антимошенническая система финансового учреждения обнаруживает денежные переводы на подменные реквизиты и блокирует их независимо от того, применялся дипфейк для обмана человека или нет.
Ранее «Курьер-Медиа» рассказывал, как мошенники требуют у россиян погасить долги перед государством и обманывают граждан от имени маркетплейсов.
Другие материалы
Бесправный водитель из Хабаровского края во время погони успел разбить две машины
На слова мужчины повлияло поднятие пенсионного возраста
Девочка соврала, потому что боялась нагоняя от родителей
У женщины есть право на реабилитацию