Россиянам рассказали, как мошенники используют нейросети в новогодние праздники

В преддверии новогодних праздников в России наблюдается активизация мошенников, которые начинают использовать передовые технологии нейросетей, сообщил «Газете.Ru» Родион Кадымов, директор по продукту компании FABULA AI.

Виктория Воропаева
Автор Финансы Mail
Источник: Reuters

Мошенники все чаще используют технологии дипфейк для кражи денежных средств. При помощи нейросетей они создают реалистичные видеозаписи с изображением человека, которые затем рассылают его друзьям или родственникам через мессенджеры и социальные сети, чтобы ввести их в заблуждение.

«Если, например, аккаунт взломали, или ваш родственник переслал кому-то голосовые сообщения, то по отрезку в 15 секунд можно сделать “слепок” голоса отправителя. Также мошенники могут общаться с вами или отправлять голосовые сообщения, схожие с голосом ваших знакомых и близких. Даже если вы слышите в голосовом знакомый голос, не теряйте бдительность», — предупредил эксперт.

Мошенники, получив изображение лица вашего родственника, могут использовать его для создания убедительных видеосообщений в мессенджере Telegram. Эти видеозаписи вызывают доверие, так как демонстрируют лицо и голос, напоминающие вашего близкого человека, однако они могут быть созданы с помощью технологии Face swap, пояснил специалист.

Активно применяя приемы социальной инженерии, мошенники используют человеческие слабости для достижения своих целей. Они часто выдают себя за сотрудников организаций, таких как банки, и связываются с клиентами или их родственниками, маскируясь под службу поддержки. Наибольшему риску подвергаются те, кто недостаточно хорошо разбирается в современных технологиях, а также представители старшего поколения.

«С развитием ИИ технологии совершенствуются, и мошенники осознают их потенциал, применяя нейросети на профессиональном уровне: используют цифровых двойников, передовые визуальные и голосовые генеративные сети, технологии замены лиц (face swap), и накладывают нужные звуковые фрагменты на аудиосообщения, такие как голосовые сообщения в Telegram», — уточнил Кадымов.

Эксперт призвал проверять все электронные письма и аккаунты, особенно если они исходят якобы от сотрудников банков и служб поддержки. Важно помнить, подчеркнул он, что представители технической поддержки редко делают первый шаг в общении, неожиданные обращения должны вызывать подозрения. Отвечать на такие письма не рекомендуется, так как они могут быть фишинговыми.

«В случае получения видеокружка от предполагаемого мошенника обратите внимание на движения его головы. Резкие повороты могут вызвать эффект “слетания” технологии Face Swap, обнажив подделку. Этот визуальный дефект может служить индикатором обмана. Также стоит прислушаться к голосу — если он кажется монотонным и лишенным интонаций, это может быть созданный с помощью ИИ аудио. Задавайте вопросы, которые могут вызвать эмоциональную реакцию. Настоящий человек обычно проявляет эмоции, тогда как искусственный интеллект может не демонстрировать такого уровня вовлеченности», — отметил специалист по кибербезопасности.

При подозрениях на использование дипфейковой технологии рекомендуется незамедлительно сообщить об этом в службу поддержки компании, чье имя было использовано мошенниками. Для повышения уровня безопасности пользователям важно постоянно обучаться и оставаться в курсе новых угроз, подытожил Кадымов.

«Данная информация носит исключительно информационный (ознакомительный) характер и не является индивидуальной инвестиционной рекомендацией».