Искусственный интеллект на службе у киберпреступников

Как мошенники и террористы используют нейросети

17.05.2025
Искусственный интеллект на службе у киберпреступников
Иллюстрация: Вестник киберполиции

Искусственные технологии продолжают развиваться, все сильнее меняя мир вокруг нас. Нейросети в разных сферах приходят на помощь человеку, одновременно становясь опасным оружием в руках киберпреступников.

Злоумышленники активно используют искусственный интеллект для создания дипфейков и их применения в отработанных схемах. Дипфейк – это современная технология, позволяющая с помощью нейросети изменить внешность и голос человека.

В 2024 году число атак на физические лица с использованием дипфейков значительно выросло. Активнее всего злоумышленники используют этот инструмент в социальных сетях или мессенджерах, когда от имени владельца учетной записи рассылают просьбы о финансовой поддержке.

Голосовая подделка

Для того чтобы убедить получателей в правдоподобности такой просьбы, применяются заранее созданные с помощью искусственного интеллекта голосовые сообщения, которые имитируют голос отправителя – родственника жертвы, ее друга или работодателя. Эти сообщения создаются на основе образцов, которые киберпреступники предварительно находят в истории переписки в похищенном аккаунте.

Как объяснили в антивирусной компании, для успешной подделки голоса человека злоумышленникам достаточно получить запись его настоящего голоса длиной в три секунды.

Схемы с использованием голосовых дипфейков могут быть разными. Например, ребенок с чужого телефона отправляет родителям голосовое сообщение с просьбой прислать денег на подарок другу. Деньги просит отправить на чужой номер, потому что его телефон сел. Также мошенники продолжают использовать (и подкрепляют дипфейком) классическую легенду, когда потерпевшему неожиданно пишет знакомый с просьбой занять денег до завтра. Для правдоподобности за текстовыми СМС приходит убедительное поддельное голосовое.

«Кружок» для жертвы

Нейросеть позволяет сгенерировать не только голос, но и внешность человека. Мошенники научились подделывать «кружочки» – видеосообщения длиной не больше минуты, которыми любят общаться пользователи мессенджеров. «Кружки» записываются прямо в момент отправки, поэтому полученное сообщение выглядит убедительно, на что и делают расчет злоумышленники.

По словам веб-разработчика одной из российских компаний Константина Горбунова, сейчас в интернете существует много гайдов, которые объясняют, как отправить обычное видео в формате «кружочка». Предварительно сгенерированное видео мошенники посылают в бот, где ролику придается круглая форма, в которой злоумышленники и отправляют его своей жертве.

Искусственный интеллект также позволяет подделывать документы. В прошлом году заработал сервис, с помощью которого можно сгенерировать поддельные паспорта, водительские права и другие бумаги из более чем 26 стран, в том числе из России. Если у преступников есть доступ к аккаунту жертвы в мессенджере, то такие подделки позволяют мошенникам брать на потерпевших кредиты, оформлять фирмы-однодневки и др.

Технологии в руках террористов

Политики и эксперты называют искусственный интеллект в руках террористов серьезной угрозой. По мнению сотрудницы Института государства и права РАН Татьяны Поляковой, высказанном год назад на Петербургском международном юридическом форуме, возможности нейросетей могут быть использованы террористами для вербовки, агитации, совершения кибератак.

В работе террористов пропаганда играет большое значение. С помощью искусственного интеллекта преступники могут быстрее и точнее анализировать, какая информация вызывает наибольший отклик, создавать тексты и изображения, которые адаптируются под культурные и религиозные различия аудитории. Эти возможности могут использоваться как для запугивания, так и для привлечения новых сторонников.

Искусственный интеллект помогает террористам находить уязвимые места в системах безопасности важных для государства учреждений. В том числе он помогает киберпреступникам проводить DDoS-атаки, число которых в последние годы только растет.

Для нападения и защиты

Искусственный интеллект может использоваться как для совершения киберпреступлений, так и для борьбы с ними. Умные технологии помогают анализировать огромный массив данных, который просто невозможно обработать в ручном режиме. По данным экспертов, сегодня финансовые организации для собственной защиты пользуются приложениями с искусственным интеллектом. Когда у киберпреступников получается обмануть жертву, она снимает со счета большую сумму, совершая нетипичную для себя транзакцию. Искусственный интеллект способен выявлять подобные подозрительные действия и быстро сообщать о них.

Используя модели машинного обучения, нейросети могут одновременно учитывать такие факторы, как время, сумма, география и прежние финансовые операции жертвы. Человек не способен на отслеживание таких многообразных требований. Один из специалистов в комментарии для СМИ привел статистику: благодаря возможностям ИИ-инструментов удается обнаружить примерно семьдесят из ста операций злоумышленников.

Специалисты считают, что число киберпреступлений с использованием дипфейков будет расти и дальше. Это обусловлено постоянно расширяющимися возможностями искусственного интеллекта, которые быстро осваивают злоумышленники.

Однако одновременно с этим возможности нейросетей изучают и берут на вооружение правоохранители вместе с сотрудниками безопасности компаний. Уже сейчас использование таких технологий в некоторых секторах экономики помогает снизить число мошеннических операций. И работа в этом направлении продолжается.

Алексей Думов

Другие материалы

Город без опасности Искусственный интеллект на службе у киберпреступников

Как мошенники и террористы используют нейросети

17.05.2025
17.05.2025
Искусственный интеллект на службе у киберпреступников
Город без опасности Петербургское стремление к единству в многобразии

Среди самых упоминаемых в обществе тем – вопросы миграционной политики

08.05.2025
08.05.2025
Петербургское стремление к единству в многобразии
Город без опасности В дни форумов и торжеств Петербурга наездники походят пешком

Смольный по соображениям безопасности ограничит уличный и водный транспорт

06.05.2025
06.05.2025
В дни форумов и торжеств Петербурга наездники походят пешком
Город без опасности Тревожные сигналы в поведении подростка

Как распознать по соцсетям опасное поведение ребенка

01.05.2025
01.05.2025
Тревожные сигналы в поведении подростка