16+
Пятница, 26 апреля 2019
  • BRENT $ 73.07 / ₽ 4739
  • RTS1244.34
3 апреля 2019, 16:46 Авто

«Солидная работа»: Илон Маск поблагодарил китайский IT-гигант за взлом Tesla

Лента новостей

Глава компании отреагировал на доклад лаборатории Tencent об уязвимостях автопилота машин. Дыры в безопасности Tesla уже устранены, но их масштабы можно назвать пугающими

Илон Маск.
Илон Маск. Фото: Mike Blake/Reuters

Едешь по Садовому кольцу на своей новой Tesla, радуешься жизни. Руки держишь рядом с рулем, как положено при использовании функции «Автопилот», ведь на самом деле это просто ассистент водителя, система удержания полосы. Внезапно машина уверенно выворачивает руль влево — плавно, но быстро, как будто туда уходит полоса — за секунду ты оказываешься на встречной. Перехватить управление не успел. Причина смерти? Три овсяных печенья, которые кто-то выронил на дорогу.

Дело в том, что именно размером с овсяное печенье были белые наклейки, с помощью которых лаборатория Tencent научилась обманывать автопилот Tesla. При определенном расположении пятен алгоритм принимает их за продолжение полосы и думает, что делает корректный маневр.

Это только одна из уязвимостей, обнаруженных китайским IT-гигантом, хотя две другие чуть менее пугающие. Вторая — возможность взломать бортовой компьютер Tesla и управлять рулевым колесом электромобиля с помощью стороннего джойстика. Третья — возможность обмануть датчик дождя с помощью специального изображения и заставить дворники двигаться даже в гараже.

Тем не менее, одного только первого сбоя может быть достаточно, чтобы подорвать репутацию бренда. Насколько это болезненно для Tesla? Об этом рассуждает шеф-редактор «Агентства кибербезопасности» Анатолий Саутин:

Анатолий Саутин шеф-редактор «Агентства кибербезопасности» «Вся техника, так или иначе, уязвима. Tesla делает революционный проект — беспилотные автомобили. Никто из производителей не делал их в таком масштабе, не проводил таких испытаний. Проблема исправима, это скорее «детские болезни» проекта. Китайцы, наверное, сами хотят сделать подобный проект в своем автомобилестроении, поэтому они оказывают такое пристальное внимание Tesla».

Проблема не только исправима, но и уже исправлена: Tencent сообщили Tesla об уязвимости заранее, а Маск вежливо поблагодарил китайских конкурентов в сфере разработки автомобильного интеллекта.

Уязвимость, использованная Tencent, называется «состязательный пример». Термин обозначает специально подобранную комбинацию вводных данных, которая заставляет машину «сойти с ума» и выдать ошибочный ответ. В случае с визуальным анализом алгоритм может принять пятна за полосу или беспорядочное поле разноцветных точек за обезьяну, хотя ни один человек в здравом уме не сделает такой ошибки.

С одной стороны, интуитивно хочется отказаться от автопилотов до лучших времен, пусть даже уже сейчас они ошибаются редко и в лабораторных условиях. С другой — можно ли сравнить это с опасностью обычных водителей? Люди и без вмешательства хакеров регулярно напиваются, засыпают и играют в шашечки, говорит редактор журнала «Авторевю» Леонид Голованов:

Леонид Голованов редактор журнала «Авторевю» «На этот вопрос пока нет ответа. Сейчас идет интенсивное развитие систем автопилотирования. Пока никто в мире еще не представил систему, которая водила бы автомобиль лучше человека. Как оказалось, вождение автомобиля — очень сложная и комплексная задача. Автоматизация требует разработки полноценного искусственного интеллекта, способного импровизировать, самообучаться и так далее. В этом вся проблема. Автопилот, который ведет хуже человека, нам не нужен, он опаснее. Задача: снизить смертность и травматизм, создать машину, которая не будет ошибаться или как минимум будет ошибаться на порядок, либо на два порядка реже среднестатистического водителя. Пока это не решено».

Научатся ли алгоритмы избегать обмана состязательным примером — неизвестно. Вспоминается рассказ Пелевина «Зенитные кодексы Аль-Эфесби». Главный герой боролся с автономной авиацией США с помощью надписей в пустыне, замечая которые дроны-убийцы как бы задумывались и разбивались оземь. Чтобы устранить уязвимость, разработчикам придется научить машины думать, как люди. Главное, чтобы автопилоты при этом не начали — совсем как люди! — пить за рулем и играть в шашечки.

Добавить BFM.ru в ваши источники новостей?

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию