
Каждый второй россиянин столкнется с дипфейк-атакой до конца года, рассказали «Известиям» эксперты по искусственному интеллекту. Сегодня речь идет про голосовые сообщения и видеокружки, но в 2026 году эксперты прогнозируют уже рост дипфейк-звонков, когда злоумышленник будет разговаривать с человеком голосом его знакомого. Раньше на создание таких убедительных подделок требовалось много времени и серьезных навыков, но сегодня эта технология рискует стать массовой благодаря развитию искусственного интеллекта.
Как мошенники обманывают россиян
Сегодня технологии дипфейков развиваются со стремительной скоростью, пользователям становится всё сложнее отличить «маску» от реальности. Буквально пару лет назад с подобными атаками сталкивались лишь 10% пользователей Сети, но уже к концу этого года каждый второй россиянин может стать жертвой дипфейк-атак, рассказали «Известиям» в пресс-службе MTS AI.
Если в 2024—2025 годах основное распространение получили фейковые видео в мессенджерах (видеокружки) и голосовые сообщения, то уже через год мошенники смогут в реальном времени имитировать разговор с «дочкой, попавшей в беду», «другом, просящим деньги» или «коллегой, срочно требующим перевести средства», отметили в компании. Причем в отличие от ранних подделок современные дипфейки всё сложнее распознать даже опытному пользователю.
— Видеокружки и голосовые сообщения в мессенджерах — один из самых популярных способов коммуникации, поэтому они представляют собой потенциально наибольшую угрозу для использования мошенниками после звонков. При этом в отличие от звонков, у которых есть определители номера и другие способы защиты, у голосовых сообщений и кружков нет возможности проверить их источник, — рассказали в компании.
Также нельзя определить, были ли они созданы внутри мессенджера или сгенерированы и загружены вручную. Из-за этого мошенники активно переключаются на них, подчеркнули в пресс-службе MTS AI. Подделка кружков и голосовых сообщений уже активно использовалась злоумышленниками в 2024-м. Однако в этом году технологии создания и модификации видео, а также клонирования голосов значительно усовершенствовались.
— Эта технология стала массово доступной, а ее качество выросло в разы. Если раньше создание убедительных подделок требовало много времени и серьезных навыков, то теперь их можно производить гораздо быстрее и проще — по сути, научиться этому может любой. Кроме того, отличить фейк от настоящих фото, видео или голоса уже сегодня сложно, а в будущем это станет практически невозможно, — пояснили там.
Ранее телеканал РЕН ТВ сообщал об одном из случаев, когда мошенники украли у пожилого москвича 1,5 млн рублей. Мужчина получил звонок от «секретаря мэра Москвы», которая предупредила пенсионера о том, что с ним скоро свяжется Сергей Собянин.
Потерпевший впоследствии рассказал, что мужчина на видеосвязи действительно был похож на столичного градоначальника, он убедил мужчину, что через его счета были похищены государственные средства и для решения этой проблемы необходимо сотрудничество с ФСБ. Позднее на электронную почту мужчине пришло приглашение на видеоконференцию якобы от мэрии. Также с пенсионером связался и «генерал», подтвердив слова «мэра», после чего мужчина перевел средства.
И это далеко не единичный случай. В апреле 2025 года глава Кемерово Дмитрий Анисимов предупредил граждан о создании его цифрового двойника.
«Злоумышленники создают поддельные видео с моим изображением и от моего имени совершают видеозвонки через мессенджеры. Под видом личного обращения они пытаются ввести в заблуждение. Прошу вас сохранять бдительность», — написал Дмитрий Анисимов в Telegram-аккаунте.
Помимо этой схемы злоумышленники часто знакомятся и с девушками в приложениях для знакомств. Так, одна из представительниц познакомилась с привлекательным парнем, а со временем их общение перетекло в Telegram, где мужчина отправлял ей голосовые сообщения и звонил по видео. Он накладывал маску во время видеозвонков.
— Девушка, по причинам, которые мы не будем называть из этических соображений, перевела ему несколько миллионов рублей. После этого мужчина исчез. Он был родом из одной из африканских стран, но представлялся белым американцем, — поделились историей в MTS AI, отметив, что таких историй им известно как минимум пять.
Как создаются дипфейки
Технологии для создания дипфейков сами по себе нейтральны — важно то, с какой целью их используют люди. Постепенно доступ к таким инструментам становится проще. Однако, несмотря на существование различных платных и бесплатных решений для создания голосовых или видеодипфейков, злоумышленникам по-прежнему непросто сделать по-настоящему правдоподобную подделку, считает руководитель направления исследования данных в «Лаборатории Касперского» Дмитрий Аникин.
— В случае видеодипфейков мошенникам необходимо собрать набор изображений потенциальной жертвы, например, разбив видео на кадры, причем в большом количестве — чем больше, тем реалистичнее будет результат. Это связано с тем, что модель должна «увидеть» лицо человека под разными углами и при разном освещении, — сказал эксперт.
По его словам, для голосовых подделок требуется меньше данных, но результат может быть нестабильным, из-за чего злоумышленнику придется делать больше попыток генерации.
Тем не менее мошенники используют различные уловки, чтобы скрыть недостатки дипфейков, рассказал эксперт. В частности, поддельные видео в мессенджерах (например, в кружочках) — один из таких приемов, поскольку они обычно небольшого размера и часто бывают размытыми, что помогает скрыть артефакты.
— Кроме того, люди привыкли к такому формату общения и считают его более безопасным, поэтому реже задают вопросы. Иногда на таких видео даже нет звука — главная задача злоумышленников в этом случае — привлечь внимание жертвы и снизить ее бдительность, — объяснил Дмитрий Аникин.
Руководитель портфеля продуктов Visionlabs Татьяна Дешкина добавила, что преступники используют несколько типов приложений и программного обеспечения. Первые позволяют наложить любое лицо на уже записанное видео, где мошенник просит срочно перевести деньги, а вторые меняют звуковую дорожку.
— Например, крадется видео родственника, клонируется его голос и накладывается новый текст: «Маша, я попал в аварию, мне срочно нужно 30 тыс. рублей, иначе меня посадят», — сказала она.
Если речь идет об организованных группах мошенников, у них все инструменты могут быть в одном приложении, разработанном ими самостоятельно. У них также, скорее всего, есть собственные команды для дообучения нейросетей, резюмировала эксперт.
Сегодня невозможно точно оценить, какая доля голосовых сообщений является преступной и сколько людей уже пострадало, поскольку пользователи обычно сообщают о мошенничестве только в надежде вернуть деньги, заключили в пресс-службе MTS AI.