16+
Пятница, 29 марта 2024
  • BRENT $ 87.07 / ₽ 8033
  • RTS1131.99
4 июня 2019, 10:30
Спецпроект: МТС: Воспитание машин

Deepfake: жизнь как в «Черном зеркале»

Лента новостей

Как фальшивые видео с бизнесменами могут разрушить репутацию компаний

Фото: depositphotos.com

Представьте себе ситуацию: вы заходите утром в свой аккаунт в соцсети и видите, что все друзья делятся одним и тем же видео. Жмете play и смотрите выступление главы Apple Тима Кука, в котором он заявляет, что смартфоны компании смертельно опасны. Через несколько часов по всем каналам проходит опровержение: заявления не было, это фейк. Но вы же сами видели, не так ли?

Обрисованная ситуация кажется надуманной — такое бывает в сериалах про будущее технологий, но не в реальной жизни. Действительно?

На самом деле такое может произойти уже сегодня. Еще в прошлом году журналисты влиятельного издания The Wall Street Journal подняли проблему deepfake videos — фейковых видео. Термин образован от словосочетания deep learning (глубокое обучение) и fake (фальшивка или обманка). Такие видео сложно отличить от реальных, и опасность в том, что сфабриковать можно любую историю. Уже существуют приложения на базе нейронных сетей, способные наложить внешность Барака Обамы, Дональда Трампа или, скажем, Анжелины Джоли на совершенно другую личность.

Как это работает? Актер сидит напротив камеры и двигает лицом, а компьютер в режиме реального времени генерирует те же действия на существующем видео бывшего президента США Барака Обамы.

Можно ли бороться с deepfake — фейкньюс, вышедшими на качественно новый уровень? И нужно ли с ними бороться? Руководитель Центра искусственного интеллекта МТС Аркадий Сандлер предлагает взглянуть на развитие подобных технологий с другой стороны.

Аркадий Сандлер руководитель Центра искусственного интеллекта МТС «Есть способы идентификации таких подделок, но это как гонка тех, кто вирусы пишет, и тех, кто от вирусов защищается. Да, конечно, современные технологии пришли к тому, что можно сделать так. Есть кейсы, где можно использовать это во благо. Например, уже сейчас есть такие шоу умерших артистов, когда собирает стадионы Майкл Джексон. Или группа ABBA — они уже не выступают, зато голограмма выступает за них. То есть это такая прекрасная развлекательная история, и можно использовать ее в киноиндустрии и так далее. А можно делать подделки».

Информация в интернете распространяется молниеносно, так что можно представить, что будет, если кто-то решит использовать видеофейк не ради развлечения. Например, что случится, если какое-то сенсационное заявление о судьбе той или иной крупной компании сделает голограмма известного на весь мир бизнесмена? Конечно, грянет скандал. Затем последует опровержение и работа пиарщиков. И, вероятно, пламя удастся потушить. Но осадочек-то останется.

На самом деле не будет ничего нового, считает Аркадий Сандлер:

«Как это отличается от заказной статьи с плохими новостями про компанию, которую разместили в каком-то медиаресурсе? Рынок отреагирует все равно. Да, технологии становятся все круче и круче, но люди не меняются, меняются обстоятельства».

По словам эксперта, современному человеку пора уже привыкнуть к новой интернет-реальности.

«Надо перепроверять информацию, даже если кажется, что все гарантировано на 100%. Здесь я пока не вижу никаких других способов от этого защищаться. Точно так же, как, когда мы читаем какую-то статью, у нас должно быть какое-то разумное критическое мышление».

Со временем, когда будет собрана достаточная база случаев с deepfake, искусственный интеллект обязательно научится отделять подлинные видео от подделок. Но тогда наверняка возникнут новые вопросы к развивающимся технологиям.

Рекомендуем:

Фотоистории

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию