Специалист отметил, что уровень профессионализма злоумышленников растет благодаря развивающимся ИТ-технологиям. «Подмена лица и голоса активно используется, чтобы заставить жертву считать, что в данный момент она общается с кем-то знакомым», — отметил он.
Законодательного регулирования использования ИИ и дипфейков в данный момент нет, как и ответственности за обман людей с их помощью, добавил эксперт.
Былины и легенды
«Легче всего заставить жертву совершить какие-либо действия, притворившись кем-то значимым для нее: близким родственником, рабочим руководителем или представителем какой-либо государственной организации. Второй вариант стал трендом уходящего года — наверное, в каждой третьей крупной российской компании рядовым сотрудникам писал в Telegram фейк их генерального директора с просьбой срочно скинуть в чате какую-либо конфиденциальную документацию или предоставить удаленный доступ к какой-либо корпоративной системе», — рассказал эксперт.
Подделать профиль начальства легко: их фотографии чаще всего выложены в открытом доступе, а функции конфиденциальности Telegram позволяют скрыть номер телефона, оставив для отображения лишь фамилию и имя.
Новые мифы на службе зла
«Социальная инженерия будет актуальна всегда — она является самым действенным инструментом, благодаря которому можно получить от жертвы нужные сведения, доступы и материальные средства», — прогнозирует Никита Козин.
Генеративные ИИ находятся в открытом доступе, их использование не предполагает существенных затрат. Регистрация поддельных профилей в мессенджерах тоже осуществляется мошенниками без особых проблем. «Уже сейчас мы видим попытки введения регуляторных изменений в отношении указанных вопросов, однако это требует времени», — рассказал специалист.
Поэтому, прогнозирует он, указанные инструменты мошенничества вполне могут оставаться такими же актуальными на протяжении всего следующего года.