
Мошеннический контент, созданный с помощью технологий искусственного интеллекта, будут выявлять и блокировать в Сети. Например, дипфейк-видео, которые рассылают людям. Депутаты Госдумы планируют внести поправки в закон «Об информации», узнали «Известия». Они будут представлены в рамках одного документа совместно с инициативой о блокировке деструктивного контента до суда. Эксперты поддерживают инициативу, при этом они отмечают, что должны быть конкретные юридические определения, прозрачные процедуры блокировки и возможность оспорить решение.
Как будут бороться с созданным ИИ мошенническим контентом.
В Госдуме готовят комплексный пакет документов с предложениями по внесению изменений в закон «Об информации», узнали «Известия». Власти планируют ввести меры по выявлению и блокировке в интернете мошеннических материалов, созданных с использованием искусственного интеллекта. Эту инициативу зампред комитета ГД по информационной политике, информационным технологиям и связи Андрей Свинцов обсуждает с Советом блогеров наряду с предложением блокировать деструктивный контент до суда.— Разрабатывается комплекс законопроектов, который будет регулировать весь спектр вопросов, связанных с искусственным интеллектом. На встрече рабочей группы обсуждался отдельно вопрос, связанный с маркировкой и возможной блокировкой контента деструктивного, который был сгенерирован ИИ, — сказал Андрей Свинцов.
По его словам, важно как можно скорее внедрить ограничительные меры, чтобы предотвратить использование сгенерированного контента для вымогательства, клеветы и других противоправных действий. Ранее депутат заявлял, что поправки следует подготовить и внести на рассмотрение Госдумы в этом году.
Основатель Совета блогеров Валерия Рытвина сообщила, что для выявления мошеннических ИИ-материалов, в частности дипфейк-видео, планируется привлекать компании, которые специализируются на разработке систем защиты от киберугроз и хакерских атак.— В нашей стране работают одни из лучших IT-специалистов, и для эффективной борьбы с мошенничеством необходимо объединить усилия государства, экспертного сообщества и общественных инициатив, — сказала она «Известиям».
Справка «Известий».
В интернете стремительно выросло количество доступных программ по созданию дипфейков. Сегодня их более 50 тыс., хотя еще два года назад таких решений практически не было. Ранее «Известия» сообщали, что до конца года, по оценкам экспертов, с мошенничеством при помощи подобных технологий может столкнуться каждый второй. Редакция провела эксперимент по созданию дипфейка — как выяснилось, для этого не нужно обладать особыми навыками. По словам экспертов, бесконтрольное распространение таких технологических решений в разы увеличивает число мошенничеств и информационных атак на пользователей.
Как эксперты оценили комплекс мер.
Распространение поддельной информации, созданной с помощью технологий ИИ, действительно становится серьезной угрозой — это подрывает доверие, вводит людей в заблуждение и может нести реальные риски, отметила основательница коммуникационного агентства Breaking Trends, секретарь Союза журналистов России Юлия Загитова.
— Мы в целом поддерживаем инициативу, направленную на борьбу с фейковым и мошенническим контентом, особенно в условиях стремительного развития генеративного ИИ, — сказала она «Известиям».
По ее словам, важно, чтобы регулирование не ограничивалось запретами, а включало понятные механизмы: четкие юридические определения, прозрачные процедуры блокировки и возможность оспорить решение. Без этого есть риск произвольного применения закона и ограничения добросовестных авторов, журналистов или экспертов.
Также необходима системная просветительская работа, чтобы пользователи умели отличать фейки, знали, как работают современные технологии и куда можно обратиться при столкновении с дезинформацией.
— Если инициатива будет реализована грамотно — с опорой на экспертизу и с уважением к правам пользователей, — это может стать важным шагом к более безопасной и ответственной цифровой среде, — подчеркнула Юлия Загитова.
Пока трудно оценить инициативу по существу, поскольку многое будет зависеть от того, как именно определят понятие «деструктивный контент». Кроме того, остается непонятным, как планируется осуществлять мониторинг, отметил руководитель направления «Разрешение It&|р споров» юридической фирмы «Рустам Курмаев и партнеры» Ярослав Шицле. Важно определить критерии «мошеннического ИИ-контента» и закрепить экспертизу за прозрачным и компетентным органом, иначе есть риск, что под удар попадет добросовестный или даже сатирический контент, считает управляющий партнер агентства цифровых коммуникаций Heads’made Ярослав Мешалкин.
— Борьба с фейками требует не только блокировок, но и системной цифровой гигиены: просвещения пользователей, маркировки ИИ-контента и развития проверенных каналов информации, — сказал эксперт. По его словам, инициатива — шаг в верном направлении, но важно сохранять баланс.