16+
Понедельник, 19 октября 2020
  • BRENT $ 42.77 / ₽ 3322
  • RTS1135.12
9 января 2020, 05:52 Общество

Facebook объявил о начале борьбы с фейковыми видео

Лента новостей

Речь о роликах, в которых голоса людей синтезированы с помощью нейросетей. Эксперты говорят, что таких видео будет становиться все больше, но людей очень просто обмануть и без применения технологий искусственного интеллекта

Фото: depositphotos.com

Технология Deepfake позволяет в видеоролике лицо одного человека заменить лицом другого. Актер записывает обращение, условно Илона Маска, (про то, что любые нужные декорации можно нарисовать и поставить их вместо зеленой стены, объяснять уже никому не нужно). И вот этот актер говорит, что он решил банкротить Tesla. После обработки видео говорит это уже как будто сам Маск. За звук при этом отвечает нейросеть, которая научилась начитывать любой текст голосом того же Илона.

Как это работае,т прекрасно видно на примере проекта Vera Voice, запущенного в ноябре. О том, на что способна нейросеть, говорилось в том числе голосами Владимира Познера и Ксении Собчак. Отличить подделку от оригинала действительно трудно.

Технологически клин искусственного интеллекта будет вышибаться таким же клином, говорит гендиректор компании «НавиРобот» Игорь Кузнецов.

Игорь Кузнецов гендиректор компании «НавиРобот» «Надо бороться с этим оружием таким же оружием. Есть куча методов, которыми можно это сделать. Это будет алгоритм, который тоже будет основан на нейросетях, который будет эти видео вычислять на основании того, какие там остались погрешности. С каждым днем все это будет делаться сложнее, потому что технологии улучшаются».

Но возьмем кейс с тем же фейковым Маском и псевдобанкротством Tesla. Пока реальный Маск докажет, что заявление сделал не реальный, рынок может уже отреагировать. На вопрос о том, как бороться с этим, ранее эксперты в эфире Business FM отвечали встречным вопросом: а чем такое заявление с точки зрения рисков для бизнеса отличается от фейковой новости, умело вброшенной в СМИ? И в сотый раз повторяли, что перед принятием решения любые данные сегодня нужно перепроверять.

Ведь что говорить о Deepfake и нейросетях, вещающих чужими голосами, если пользователей того же Facebook можно обмануть куда проще. В прошлом году российский сегмент соцести был полон роликами со звездами, которые объявляли о розыгрыше автомобилей и прочих призов. Вот только мошенники брали реальные видео прошлых лет, немного монтировали их и просто меняли ссылку, по которой нужно перейти, а дальше предлагали наивным пользователям поучаствовать в каких-то платных опросах. И люди верили.

Так что, сталкиваясь даже с достижениями искусственного интеллекта, не стоит забывать об интеллекте естественном.

Добавить BFM.ru в ваши источники новостей?

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию