Вячеслав Володин предложил маркировать контент, созданный при помощи ИИ
В своем телеграм-канале спикер Госдумы отметил, что к ИИ стали прибегать даже в тех сферах, где его применение «по сути своей недопустимо, и такой контент может быть использован в противоправных целях. Что думают о предложении Володина профессионалы?
Читать на полной версииОбновлено в 21:16
Спикер Госдумы Володин вслед за депутатом Горелкиным предложил маркировать контент, созданный при помощи ИИ. Вячеслав Володин написал в своем телеграм-канале, что к ИИ стали прибегать даже в тех сферах, где его применение «по сути своей недопустимо. Сгенерированный искусственным интеллектом продукт иногда используют в противоправных целях».
Еще в конце мая Институт социально-экономического анализа предложил кабмину ввести маркировку ИИ-контента для борьбы с дипфейками. О целесообразности этих инициатив рассуждает эксперт по информационной безопасности, представитель группы компаний «Гарда» Лука Сафонов:
Лука Сафонов эксперт по информационной безопасности, представитель группы компаний «Гарда» «Действительно, сейчас стоит проблема дипфейков, голосовых войсфейков и так далее. Делают поддельные видео, часто используют в мошеннических схемах, и маркировка контента, сгенерированного с помощью ИИ, на самом деле, наверное, могла бы здесь помочь, ну или хотя бы частично помочь. Плюс во многих областях, где переиспользуют, скажем так, ИИ, в том числе для создания каких-то, возможно, научных работ, как инструмент использовать его удобно и правоприменимо, но вот полностью заменять человека, наверное, пока еще рано, и в том числе, чтобы не вводить в заблуждение тех, кто использует результат этого труда, что это сгенерировано не человеком, а с помощью искусственного интеллекта, стоит маркировать. Потому что пока искусственный интеллект содержит достаточно много ошибок, бывает, галлюцинирует, возможно неправильное восприятие, неправильное оценка того, что он выдал, может так или иначе навредить, ну или быть каким-то бесполезным. А если этот контент будет промаркирован, то, по крайней мере, человек сможет с некой долей скепсиса или с фактчекингом эту информацию использовать в своей работе или в личной жизни. Некоторые генераторы, скажем так, ИИ-контента, уже зашивают некие маркеры, что это сгенерировано с помощью искусственного интеллекта, помимо классической надписи, что это сгенерировано, еще и делают что-то типа водяных знаков, которые при приближении распознаются как генерированные с помощью ИИ».
Комментирует профессор Московского государственного юридического университета, директор юрфирмы «Интернет и право» Антон Серго:
Антон Серго профессор Московского государственного юридического университета, директор юрфирмы «Интернет и право» «Искусственный интеллект в двух, наверное, направлениях развивается, он несет определенную пользу, потому что способен проводить анализ больших объемов материалов и делать это порой довольно точно, что у рядового специалиста или ученого занимало много времени раньше. А с другой стороны, понятно, что он используется как средство быстрой подготовки каких-то текстов, качество которых не всегда проверяется самим читателем в силу ограниченности знаний или ограниченности времени, это мы встречаем начиная от школьных, студенческих работ и до научных или околонаучных текстов. Я так понимаю, что это этап, который нам всем предстоит пройти точно так же, как любые другие средства помогали человечеству в решении подручных вопросов. Я не уверен, что есть острая необходимость в маркировке. Дело в том, что, как и в случае с любым другим инструментарием, это средство, которое усложняет жизнь порядочным людям, но никак не влияет на жизнь непорядочных. Там, где есть возможность пользования искусственного интеллекта, такую маркировку использовать можно, по сути, в ней особой нет необходимости, там, где технология искусственного интеллекта используется, и это делать нельзя и нежелательно, об этом просто не будет указываться и все. Несколько возможностей переработки текста делают тот или иной текст практически неузнаваемым с точки зрения того, что он был подготовлен технологией искусственного интеллекта. Те же технологии рерайта не вполне совершенны на сегодняшний день, попытки, как сейчас, использовать инструментарий одного искусственного интеллекта определить, написан ли был текст другим искусственным интеллектом, со временем будут все менее и менее эффективны. Развивать тему ответственности за использование искусственного интеллекта, это может быть и сфера судопроизводства, и сфера медицины, ряд других сфер, где человек отвечает за тот материал, который он подготовил, эти направления ответственности развивать имеет смысл».
Гендиректор компании — разработчика искусственного интеллекта «А-Я эксперт» Роман Душкин считает идею маркировки ИИ рискованной сразу по нескольким причинам:
В своём посте Володин сетует на то, что к помощи нейросетей стали прибегать даже при вынесении судебных решений. Он пообещал посвятить теме искусственного интеллекта «большие парламентские слушания в конце года».
В Китае уже действует закон, который обязывает маркировать ИИ-контент -- для борьбы с дипфейками. Такие материалы должны содержать скрытые метки в метаданных. В России разработкой по созданию отраслевого стандарта распознавания ИИ-контента занимается ИСП РАН.