16+
Понедельник, 14 октября 2024
  • BRENT $ 78.17 / ₽ 7510
  • RTS903.24
26 апреля 2023, 21:13 Технологии

ИИ против всех: на нейросети пожаловались РПЦ и Сергей Миронов

Лента новостей

Церковь призвала запретить «антропоморфизацию» технологий и ввести обязательную маркировку для сгенерированного контента, а глава «Справедливой России» увидел крамолу в картинках, созданных моделью «Сбера»

Фото: Elnur/Фотобанк Лори

Предложения по регулированию ИИ, которые приводят «Ведомости» со ссылкой на презентацию представителя РПЦ на круглом столе в Высшей школе экономики, можно назвать и понятными, и спорными: «Необходимо установить запрет на применение в [...] технологиях ИИ человеческих голосов, лиц, то есть образа [...] человека и его качеств как живого существа. [...] Нужен запрет на антропоморфизацию программ, [...] и роботов».

С одной стороны, звучит разумно: зачем нам принтеры дезинформации или нейросамозванцы, которых невозможно отличить от человека? С другой — не вполне реалистично: логика и рассудительность тоже человеческие качества, а если запретить использование человеческого голоса, ИИ сможет говорить разве что на дельфиньем языке.

Что именно имелось в виду, из статьи не ясно. Возможно, речь шла о кейсах с публикацией сгенерированного контента под видом авторского. Как, например, недавний скандал с публикацией интервью нейро-Шумахера, из-за которого главред немецкого журнала лишился работы. Или о случаях с появлением аудиозаписей разговоров, которые их предполагаемые участники объявляют ИИ-подделкой. Позицию анализирует генеральный директор разработчика искусственного интеллекта «А-Я эксперт» Роман Душкин:

Роман Душкин генеральный директор разработчика искусственного интеллекта «А-Я эксперт» «Мне кажется, РПЦ говорит не о том, что нужно запретить генерировать образы человека, а о том, что нужно перестать одушевлять, олицетворять систему искусственного интеллекта. И вот здесь я с позицией церкви полностью согласен. Но смотрю на это с позиции ученого. Большое количество страхов происходит у людей из-за того, что люди одушевляют искусственный интеллект. То есть считают, что в компьютерах завелось какое-то существо. Вот это совершенно вредная позиция. В компьютерах исполняются алгоритмы. Ну, никому же не придет в голову олицетворять, одушевлять молоток. Системы искусственного интеллекта — это такие же инструменты, как все остальное. И вкладывать в эту технологию душу только потому, что в ее названии используется слово «интеллект», — это главная беда обывателя, я бы так сказал. Из этой беды растут все страхи. Для того чтобы перестать бояться, я всем рекомендую вместо слов «искусственный интеллект» использовать термин «умножение вектора на матрицу». Тогда сразу все становится на свои места. Например, «искусственный интеллект захватит мир и поработит человечество». Меняем. «Умножение вектора на матрицу захватит мир и поработит человечество». Смешно? Смешно. Значит, первоначальная фраза какая-то неправильная».

Также церковь призывает закрепить «дисклеймер» для нейросетей, чтобы всем было понятно, что человек общается с искусственным интеллектом. Вероятно, это должно касаться и созданного ими контента. Зимой на фоне скандалов с написанием курсовых работ и других текстов с помощью ИИ ряд сервисов представили свои «антиплагиаты», нацеленные на выявление сгенерированных материалов.

Всеобъемлющего регулирования этой области пока нет ни в одной стране, но в Евросоюзе активно обсуждается так называемый AI Act. Пакет может определить разные степени контроля за ИИ в разных сферах — от «низкого риска» (например, спам-фильтры или чат-боты) до «высокого риска» (например, подбор персонала или оценка кредитного рейтинга клиента) и даже «недопустимого риска» (например, распознавание лиц на улицах). Собеседники Sifted опасаются рисков для отрасли: из-за жесткого регулирования все стартапы просто уедут в другие страны. По мнению портала, в который инвестировала Financial Times, в условиях правового вакуума нормы могут стать образцом для глобального регулирования ИИ. Продолжает председатель совета Фонда развития цифровой экономики, экс-советник президента России Герман Клименко:

Герман КлименкоГерман Клименко председатель совета Фонда развития цифровой экономики «Некоторая обеспокоенность понятна. Можно утверждать, например, что года через два мы вряд ли сможем определить, насколько фотографии настоящие, в силу того что все-таки технологии развиваются, и здесь вряд ли как-то можно ухудшить качество нейронных сетей. Китай пытается сформулировать обязательные маркирования этой истории, то есть если фотография или рисунок сделан искусственным интеллектом, то нужно добавить какие-то характеристики, которые подтверждают это. Трудно сказать, по какому пути мы пойдем. Проблема возникла, и я за разнообразие решений. Китайский вариант местами будет полезен, особенно когда он будет касаться каких-то официальных историй и официальных источников. Европа намного демократичнее, чем Китай, тем не менее мы сами понимаем, что любое ограничение существующей свободы всегда воспринимается болезненно. Когда продукт стартовал самостоятельно, вообще без ограничений, то из-за любых подходов к его урегулированию возникают споры. Поэтому на европейскую тему я смотрю достаточно спокойно, там нет какого-то вреда, я думаю, и не будет такого, чтобы все закрылось: это будет что-то более спокойное, чем Китай. А чья модель более правильная, выяснится года через два буквально».

Почти одновременно с публикацией о предложениях РПЦ тему также затронул депутат Сергей Миронов. Как заявил глава СР в своем телеграм-канале, генеративная нейросеть от «Сбера» Kandinsky 2.1 «формирует заведомо негативный образ России», в частности не умеет рисовать российский флаг и выдает украинские флаги по запросу «Донбасс — это Россия». Политик направил генпрокурору письмо о проверке деятельности Сбербанка. Воспроизвести результаты Миронова в редакции не удалось: российский флаг нейросеть нарисовала в 100% попыток.

Рекомендуем:

Фотоистории

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию