16+
Пятница, 21 июня 2019
  • BRENT $ 64.55 / ₽ 4060
  • RTS1391.21
6 июня 2019, 10:15
Спецпроект: МТС: Воспитание машин

Искусственный интеллект и этика

Лента новостей

Должен ли искусственный интеллект быть «этичным»

Фото: depositphotos.com

Повсеместное внедрение систем на основе технологий искусственного интеллекта и перспективы их развития ставят перед человечеством новые сложные вопросы. Должен ли искусственный интеллект быть «этичным» и кто будет отвечать в случае, когда программа допускает ошибку с фатальными последствиями?

В технологических и научных кругах уже несколько лет идут жаркие споры на тему безопасности и этичности применения систем искусственного интеллекта. Вопрос поднимается и на государственном уровне: в США, Европе и России идут обсуждения необходимых изменений в законодательствах, которые нужно внедрить до того, как ИИ плотно войдет в повседневную жизнь. К примеру, беспилотные автомобили уже сейчас выезжают на дороги, в том числе у нас в стране.

Все это подводит нас к тому, что каким-то образом нужно прописать ответственность в случаях, если та или иная трагедия происходит из-за сбоя систем и алгоритмов. Самый простой пример: кто будет отвечать за ДТП, произошедшее по вине беспилотника?

Как научить машины решать этические проблемы, и можно ли вообще ставить вопрос таким образом? В MassachusettsInstituteofTechnology(MIT) провели исследование: людям предложили сделать выбор, чью жизнь должен сохранить автомобиль без водителя, когда невозможно обойтись без пострадавших. Среди потенциальных жертв были перечислены младенцы, старики, беременные, атлеты, полные люди, преступники и животные. Ни к чему конкретному в итоге не пришли. В разных странах люди голосовали по-разному.

На уровне корпораций дилемма решается по-своему. Производители автомобилей, например, видят задачу так: в безвыходной ситуации ИИ должен в первую очередь спасать водителя. Ведь если вы будете знать, что «умная» система управления автомобилем может вас убить — разве вы купите такую машину?

Вопрос этики в системах искусственного интеллекта — очень сложен и важен, говорит руководитель Центра искусственного интеллекта МТС Аркадий Сандлер. С ним мы всю неделю обсуждаем самые спорные темы об искусственном интеллекте.

Аркадий Сандлер руководитель Центра искусственного интеллекта МТС Я вообще обожаю, вопросы, связанные с этикой искусственного интеллекта — как тему, которой не существует. Потому что никакие системы на базе искусственного интеллекта не принимают самостоятельные решения. Искусственный интеллект нельзя наказать.

По мнению Аркадия Сандлера, исследования, которые провели в MIT в рамках проекта Moral Machine, скорее всего, никоим образом не повлияет на решение вопроса: как на самом деле будет вести себя робот-автомобиль в тех или иных ситуациях.

Какое решение примет живой человек — водитель? Я думаю, что он сделает все, чтобы минимизировать урон тем, кто находится внутри автомобиля. Я думаю, что автомобили без водителя будут действовать ровно так же. Это будет заложено в них изначально.

Вопросом этики применения систем искусственного интеллекта занимаются большое количество организаций во всем мире. В обсуждение включены буквально лучшие умы человечества — ученые, общественные деятели, руководители государств.

Довольно значительное количество стран уже приняли или разрабатывают стратегии, дорожные карты по искусственному интеллекту и применению искусственного интеллекта. Россия как раз — одна из таких стран. У нас активно разрабатываются стратегии дорожной карты по применению систем на основе искусственного интеллекта. Мы, МТС, участвуем в этом довольно активно. В том числе, разрабатывается нормативная база применения систем на основе искусственного интеллекта в целом и нормативная база, в частности, для применения беспилотного транспорта — наземного и не только.

Успех применения ИИ и начало его использования заложено, в том числе, в грамотной нормативной базе и глубокой проработке вопросов конечной ответственности для разных случаев применения подобных систем, подчеркивает представитель МТС.

К единому мнению относительно этичного поведения машин в сложных ситуациях люди еще не пришли. Как, впрочем, нет таких ответов и во многих происшествиях с участием только людей. Тем не менее, в отношении последних законодательные алгоритмы прописать удалось. Это значит, что ближайшие несколько лет технологический мир будет продолжать спорить, доказывать и решать, каким образом научить ИИ причинять минимально возможный вред там, где иначе нельзя. И кто будет нести ответственность за принятое машиной решение.

Кстати, возвращаясь к тем же беспилотным авто. Согласно исследованию McKinsey & Company, повсеместное использование беспилотных автомобилей на дорогах на 90% сократит число аварий и спасет тысячи жизней только в США. Если перенести эти цифры на весь мир, получается внушительный стимул для внедрения ИИ.

Добавить BFM.ru в ваши источники новостей?

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию