16+
Суббота, 24 января 2026
  • BRENT $ 66.12 / ₽ 5020
  • RTS1152.34
23 января 2026, 21:17 Общество

Госдума предлагает еще один способ маркировки ИИ

Лента новостей

Группа депутатов подготовила законопроект, который запрещает использование при массовых обзвонах человекоподобной синтезированной речи для того, чтобы усложнить жизнь телефонным мошенникам. У юристов и специалистов по ИИ эта инициатива вызывает недоумение

Фото: freepik.com

Здравствуйте! С вами говорит робот. В Госдуме придумали новый способ борьбы с телефонными мошенниками. Группа депутатов подготовила законопроект, который запрещает использование при массовых обзвонах человекоподобной синтезированной речи. По мнению авторов, если голос робота будет явно узнаваем как искусственный, это усложнит жизнь преступникам. Юристы и специалисты по искусственному интеллекту в этом сомневаются.

В пояснительной записке к законопроекту говорится, что сейчас нет обязательных требований к акустическим характеристикам голоса, сгенерированного нейросетью. И это «создает условия для введения граждан в заблуждение относительно источника вызова и личности лица, якобы инициирующего контакт». Предлагается не только запретить использование синтезированной речи, неотличимой от голоса человека, но также добавлять к голосу робота некие «явные акустические маркеры», чтобы было сразу понятно, что говорит машина.

Как это поможет борьбе с мошенниками? Этот вопрос Бизнес ФМ задала одному из авторов законопроекта, первому замруководителя думской фракции «Справедливая Россия — За правду» Дмитрию Гусеву:

Дмитрий Гусев соавтор законопроекта, первый замруководителя думской фракции «Справедливая Россия — За правду» «Данные человека, а именно его голос, — это биометрические данные, могут быть использованы против него или против членов его семьи или близких. Потому что, имея запись голоса человека, можно сгенерировать любой его аудиотекст, можно использовать запись этого голоса в мошеннических схемах. Но будет по-честному, если кто-то использует для правильных нужд роботов, то честно об этом предупреждать: «Здравствуйте, вам звонит робот» — и это будет справедливо. Вот такая инициатива. Надеюсь, ее поддержат коллеги. Не надо очеловечивать этот искусственный интеллект, потому что это создает избыточное доверие к этому искусственному интеллекту и может подталкивать людей к принятию неправильных решений».

Инициатива депутатов вызывает как минимум недоумение. Мошенники точно не будут исполнять требования этого закона, если его примут и он вступит в силу. Продолжает управляющий партнер «Коллегии медиа юристов» Федор Кравченко:

Федор Кравченко управляющий партнер «Коллегии медиа юристов»«Рационального зерна в этом законопроекте не видно. Фактически, если на пальцах объяснять, о чем он написан: о том, чтобы, когда мошенники звонят, они использовали бы не человекоподобный голос, а голос, похожий на робота, который можно явно отличить от человека. Я не вижу, как это может предотвратить мошенничество, но глупой кажется мне сама идея, что можно мошенникам что-то запретить, когда они делают свое преступление, потому что свойство любого преступника как раз в том, что он закон нарушает, и от того, что будет введена еще одна норма, которую он нарушит в дополнение к Уголовному кодексу, никаким образом не поможет бороться с телефонными мошенниками, на что ссылаются авторы законопроекта в пояснительной записке».

Сам по себе законопроект, может, и не очень, но он поднимает важный вопрос — как понять, что вы общаетесь с живым человеком, а не с роботом? Или даже шире: рассказ, который вам понравился, принадлежит настоящему писателю или его придумала нейросеть? Видео, которое набрало миллионы просмотров, снято человеком или сгенерировано? Надо ли маркировать контент, созданный машиной? Кстати, в прошлом году депутаты Госдумы уже предлагали ввести обязательную маркировку видеороликов, созданных с помощью ИИ. Комментирует основатель студии искусственного интеллекта FOKINA.AI Дарья Фокина:

Дарья Фокина основатель студии искусственного интеллекта FOKINA.AI «Глобально сейчас три подхода. Первый — это обязательная маркировка на уровне закона. Это AI-акт в Европейском союзе, требования к пометке синтетического контента, особенно в рекламе и политике. Второе — это саморегулирование платформ типа YouTube, TikTok, которые вводят собственные правила и технические метки. Третье — это, как у нас, какие-то разрозненные попытки как-то остановить этот несущийся ИИ-поезд. Есть ли эффект от этого? Очень частичный. Да, маркировка работает не как защита, а как просто факт. Ключевая мысль здесь, что регулировать ИИ нужно, но не через запрет похожести на человека, а нужно регулировать сами сценарии использования: обман, манипуляции, мошенничества, иначе мы снова получаем жесткий закон, который мешает рынку, но почти не бьет по реальным злоупотреблениям».

Ранее обязательную маркировку ИИ-контента ввели в Китае. Китайские онлайн-платформы и сервисы обязали сообщать, что используют для этого искусственный интеллект.

Южная Корея приняла первый в мире свод законов, регулирующий искусственный интеллект, который вступит в силу в 2027 году и введет стандарты для разработки, тестирования и внедрения ИИ-систем. Среди нововведений — обязательная маркировка изображений, созданных с помощью ИИ.

Рекомендуем:

Фотоистории

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию