Больше 20% контента, который видят новые пользователи YouTube, — ИИ-слоп, или мусор, показывает исследование, которое опубликовала The Guardian. Грозит ли нам захламление интернета? И стоит ли регулировать распространение такого контента?

Термин «слоп» стал словом уходящего года по версии словаря Merriam-Webster. Так называют «мусорный» контент низкого качества. Как правило, сгенерированный ИИ.
ИИ-слоп действительно часто попадается в лентах соцсетей. Особенно он распространен среди вертикальных видео.

Не пренебрегают таким и крупные компании. Недавно нидерландский McDonald's выпустил праздничный рекламный ролик, полностью сгенерированный искусственным интеллектом. В Сети разразился скандал — пользователи жаловались, что McDonald's испортил им новогоднее настроение. Ролик пришлось срочно удалить и принести извинения.

В исследовании компании Kapwing, которое опубликовала The Guardian, говорится: из 15 тысяч самых популярных ютуб-каналов в мире 278 содержат исключительно ИИ-слоп. Их суммарная выручка за год составила около 117 млн долларов. А, создав новый аккаунт на видеохостинге, исследователи выяснили, что примерно одна пятая из видео, которые предлагают алгоритмы — все тот же слоп.

Однако методология исследования вызывает вопросы, говорит гендиректор Ai influence, вице-президент АКАР Алексей Парфун:

Алексей Парфун гендиректор Ai influence, вице-президент АКАР «Сейчас очень много ИИ-контента, потому что его уже производится больше, чем делается руками. Соответственно, когда ты заходишь куда-то, там по определению много ИИ-контента, потому что его в принципе много. Все алгоритмы всех социальных медиа работают одинаково. Они пытаются предугадать, что понравится пользователю, ориентируются на его лайки, глубину просмотра, досмотры, комментирование, сохранение. Соответственно, новый пользователь заходит, да, возможно, ему действительно показывается какой-то так называемый AI-слоп, но дальше он начинает голосовать. Он может смотреть лекции или театральные постановки и никогда в жизни не увидит ни одной единицы ИИ-контента. Нет вообще никакой взаимосвязи между тем, как делается контент, и степенью таланта, которая туда вкладывается. Люди сами решают, что им смотреть. Я не понимаю вот этой агрессии со стороны аудитории. Мне кажется, что это излишняя эмоция, вызванная в первую очередь тем, что это слишком быстро пришло в нашу жизнь. Относительно позиции социальных сетей, мне кажется, они-то как раз в этом очень сильно заинтересованы. Если у них появляется много контента, который аудитория смотрит, они начинают выигрывать у своих конкурентов. Я думаю, что это ровно та причина, по которой никто не блокирует ИИ-контент на том же самом YouTube, потому что понимают, что на следующий день TikTok даст зеленый свет ИИ-контенту, и они начнут глобально проигрывать конкуренцию».

Все чаще проблему некачественного ИИ-контента предлагают решать маркировкой. Эта идея выдвигалась на уровне и Госдумы, и частных компаний.

Гендиректор «А-Я эксперт», старший преподаватель кафедры «Кибернетика» НИЯУ МИФИ Роман Душкин уверен, что генеративный контент вошел в нашу жизнь навсегда. И маркировать его — бессмысленно:

Роман Душкин генеральный директор «А-Я эксперт», старший преподаватель кафедры «Кибернетика» НИЯУ МИФИ «Вся вот эта движуха по поводу давайте мы сейчас заставим владельцев моделей, владельцев платформ и прочих акторов рынка контента что-то маркировать — это все популизм. Если примут закон об обязательной маркировке ИИ-контента, это будет просто ужас, потому что, ну, во-первых, уже интернет наполовину наполнен сгенерированным контентом. За эти три года поезд ушел. Цифровой водяной знак — ЦВЗ, ватермарку снять легко. Да, если она динамическая, как у Sora, это проблема. Но если мы все модели заставим вот такие ватермарки видимые делать, никто тогда их не будет использовать в генерации серьезного контента. А во-вторых, это инвертирует бремя доказательства. Если по умолчанию научить граждан, что отмаркированный контент — это сгенерированный контент, значит, доверять ему нельзя. Что с очевидностью будет использоваться мошенниками. Мошенники будут генерировать неотмаркированный контент и подсовывать его людям, которые будут думать: «О, раз марки нет, значит, этому контенту можно доверять».

Недавнее исследование, которое публиковал Forbes, показало, что примитивный ИИ-слоп влияет не только на людей. Сами ИИ-модели, которые обучаются на некачественном генеративном контенте, начинают хуже функционировать. Продолжает СЕО студии искусственного интеллекта Fokina.AI Дарья Фокина:

Дарья Фокина CEO студии искусственного интеллекта Fokina.AI «Риск ухудшения ИИ-моделей есть. Современные ИИ-модели учатся не только на чистых датасетах, но и на огромном массиве публичного контента. Если в этой среде растет доля примитивного, повторяющегося ИИ-контента, возникает эффект замкнутого круга: модели начинают учиться на собственных же упрощенных производных. Чтобы ухудшения качества не происходило, крупные игроки уже сейчас инвестируют в фильтрацию данных, синтетические чистые датасеты и ручную экспертизу обучения. Таким образом, эта проблема пока решается».

Опрошенные эксперты согласны в одном: искусственный интеллект дает возможность как для генерации примитивного слопа, так и для настоящего большого творчества. А взаимосвязи между способом создания контента и степенью таланта его автора нет никакой.