Вячеслав Володин предложил маркировать контент, созданный при помощи ИИ
Лента новостей
В своем телеграм-канале спикер Госдумы отметил, что к ИИ стали прибегать даже в тех сферах, где его применение «по сути своей недопустимо, и такой контент может быть использован в противоправных целях. Что думают о предложении Володина профессионалы?

Обновлено в 21:16
Спикер Госдумы Володин вслед за депутатом Горелкиным предложил маркировать контент, созданный при помощи ИИ. Вячеслав Володин написал в своем телеграм-канале, что к ИИ стали прибегать даже в тех сферах, где его применение «по сути своей недопустимо. Сгенерированный искусственным интеллектом продукт иногда используют в противоправных целях».
Еще в конце мая Институт социально-экономического анализа предложил кабмину ввести маркировку ИИ-контента для борьбы с дипфейками. О целесообразности этих инициатив рассуждает эксперт по информационной безопасности, представитель группы компаний «Гарда» Лука Сафонов:
Лука Сафонов эксперт по информационной безопасности, представитель группы компаний «Гарда» «Действительно, сейчас стоит проблема дипфейков, голосовых войсфейков и так далее. Делают поддельные видео, часто используют в мошеннических схемах, и маркировка контента, сгенерированного с помощью ИИ, на самом деле, наверное, могла бы здесь помочь, ну или хотя бы частично помочь. Плюс во многих областях, где переиспользуют, скажем так, ИИ, в том числе для создания каких-то, возможно, научных работ, как инструмент использовать его удобно и правоприменимо, но вот полностью заменять человека, наверное, пока еще рано, и в том числе, чтобы не вводить в заблуждение тех, кто использует результат этого труда, что это сгенерировано не человеком, а с помощью искусственного интеллекта, стоит маркировать. Потому что пока искусственный интеллект содержит достаточно много ошибок, бывает, галлюцинирует, возможно неправильное восприятие, неправильное оценка того, что он выдал, может так или иначе навредить, ну или быть каким-то бесполезным. А если этот контент будет промаркирован, то, по крайней мере, человек сможет с некой долей скепсиса или с фактчекингом эту информацию использовать в своей работе или в личной жизни. Некоторые генераторы, скажем так, ИИ-контента, уже зашивают некие маркеры, что это сгенерировано с помощью искусственного интеллекта, помимо классической надписи, что это сгенерировано, еще и делают что-то типа водяных знаков, которые при приближении распознаются как генерированные с помощью ИИ».
Комментирует профессор Московского государственного юридического университета, директор юрфирмы «Интернет и право» Антон Серго:
Антон Серго профессор Московского государственного юридического университета, директор юрфирмы «Интернет и право» «Искусственный интеллект в двух, наверное, направлениях развивается, он несет определенную пользу, потому что способен проводить анализ больших объемов материалов и делать это порой довольно точно, что у рядового специалиста или ученого занимало много времени раньше. А с другой стороны, понятно, что он используется как средство быстрой подготовки каких-то текстов, качество которых не всегда проверяется самим читателем в силу ограниченности знаний или ограниченности времени, это мы встречаем начиная от школьных, студенческих работ и до научных или околонаучных текстов. Я так понимаю, что это этап, который нам всем предстоит пройти точно так же, как любые другие средства помогали человечеству в решении подручных вопросов. Я не уверен, что есть острая необходимость в маркировке. Дело в том, что, как и в случае с любым другим инструментарием, это средство, которое усложняет жизнь порядочным людям, но никак не влияет на жизнь непорядочных. Там, где есть возможность пользования искусственного интеллекта, такую маркировку использовать можно, по сути, в ней особой нет необходимости, там, где технология искусственного интеллекта используется, и это делать нельзя и нежелательно, об этом просто не будет указываться и все. Несколько возможностей переработки текста делают тот или иной текст практически неузнаваемым с точки зрения того, что он был подготовлен технологией искусственного интеллекта. Те же технологии рерайта не вполне совершенны на сегодняшний день, попытки, как сейчас, использовать инструментарий одного искусственного интеллекта определить, написан ли был текст другим искусственным интеллектом, со временем будут все менее и менее эффективны. Развивать тему ответственности за использование искусственного интеллекта, это может быть и сфера судопроизводства, и сфера медицины, ряд других сфер, где человек отвечает за тот материал, который он подготовил, эти направления ответственности развивать имеет смысл».
Гендиректор компании — разработчика искусственного интеллекта «А-Я эксперт» Роман Душкин считает идею маркировки ИИ рискованной сразу по нескольким причинам:
Роман Душкин генеральный директор «А-Я эксперт», старший преподаватель кафедры «Кибернетика» НИЯУ МИФИ «Большие языковые модели, методы генеративного искусственного интеллекта — это инструмент в наших руках, и это способствует тому, что люди его очеловечивают. Все эти размышления, обсуждения вытекают из такого очеловечивания, ложного подхода к инструменту. То, о чем говорится в посте регулирования применения инструмента, это то, что государство, законодатели, законотворцы, даже правоприменители, в целом делать умеют, и не нужно выдумывать никаких новых принципов, нужно придумать регуляторные рамки, как этот инструмент использовать, и нужно это правильно, корректно сделать. Правоприменительная практика за то, что кто-то не будет маркировать, какая она, какое будет наказание, почему оно таким должно быть, в каких областях это так? Вопросов возникает очень много, напишет человек какое-то там научно-фантастическое произведение, его надо маркировать? Человек выступает творческим началом, использует инструмент для генерации текста, да это и раньше было. Сидел автор, придумывал идею, отдал своим подмастерьям, они ему эту идею облекли в слова, он ее несколько раз перечитал, что-то зачеркнул, и никому в голову вообще не приходило помечать этот текст, что он как-то сгенерирован. Другое дело, критические области, вот на транспорте используются разные технологии, регулируется их применение, а применение тех же самых технологий в других сферах жизни не регулируется, так же и тут надо действовать. Маркировка не приведет, я считаю, ни к чему. Мошенники на требования к маркировкам будут плевать, а то еще и будут использовать эту самую маркировку для того, чтобы показывать, что они не мошенники. Ведь что такое маркировка? Это то, что государство подтверждает, что у маркированного изделия есть какое-то свойство, и граждане не так критично относятся к тому, с чем сталкиваются, и это может сыграть, наоборот, плохую роль. Не трогайте вы искусственный интеллект уже, отрасль только-только начинает становиться. Если мы в России сейчас это зарегулируем, мы получим примерно как в Европе, где развитие искусственного интеллекта остановилось вообще. Какие два центра могучих развития искусственного интеллекта? США и Китай. Ну мы там тоже примерно на уровне».
В своём посте Володин сетует на то, что к помощи нейросетей стали прибегать даже при вынесении судебных решений. Он пообещал посвятить теме искусственного интеллекта «большие парламентские слушания в конце года».
В Китае уже действует закон, который обязывает маркировать ИИ-контент -- для борьбы с дипфейками. Такие материалы должны содержать скрытые метки в метаданных. В России разработкой по созданию отраслевого стандарта распознавания ИИ-контента занимается ИСП РАН.
Рекомендуем:




Рекомендуем:

























