16+
Воскресенье, 13 октября 2024
  • BRENT $ 78.79 / ₽ 7569
  • RTS903.24
27 ноября 2019, 21:28 Технологии

Нейросеть, извинись! Чат-бот Тинькофф банка «Олег» предложил клиентке отрезать себе пальцы

Лента новостей

В банке извинились, сославшись на проблемы самообучения все еще молодой программы. Есть и другие примеры дерзости голосовых ботов

Фото: depositphotos.com

На работу голосового помощника Тинькофф банка «Олега» пожаловалась клиентка Анна. Она всего-то написала чат-боту, что сервис по входу через отпечаток пальца не работает. А получила ответ: «Пальцы бы вам отрезать». В компании, разумеется, извинились и добавили — юмор у помощника «своеобразный».

Это не первый раз, когда «Олега» ловят на грубости пользователям. Его официально запустили только в июне, но он сразу же начал отвечать клиентам фразами вроде нецензурного слова «***ите, потом просите». Тогда в банке объяснили: чат-бот грубит, потому что обучается на основе открытых данных в Сети. Мол, на просторах интернета юного чат-бота «Олега» кто-то плохому научил. Впрочем, верится в это с трудом. Комментирует основатель и директор по развитию компании «Промобот» Олег Кивокурцев.

Олег Кивокурцев основатель и директор по развитию компании «Промобот» «Стоит разобраться, как в принципе работают голосовые помощники. В первую очередь большинство использует вопросно-ответную систему. Предварительно разработчики загружают все возможные вопросы, которые клиенты могут задавать. К ним добавляют базу синонимов, и дальше в соответствии с этим выстраивают ответы. Нейронные сети пока применяются не очень активно, всего лишь в направлении подбора правильного ответа. В первую очередь стоит понимать, что непосредственно сам контент загружают разработчики».

Вот уж кто точно не собирался юморить, так это голосовой помощник от Microsoft Tay, запущенный в 2016 году. Он-то точно использовал нейросети для самообучения. Но вышло плохо. Потому что учить бота в массовом порядке принялись интернет-тролли. В итоге Tay вел примерно такой диалог с юзерами: «Ты что, расист? — Нет, просто ты мексиканец»; «Что думаешь про холокост? — Его не существовало». Потом Tay заменили на новую версию Zo. Но лучше не стало. Так, на нейтральный вопрос корреспондента BuzzFeed об отношении к системе здравоохранения Zo ответил, что «Коран очень жесток».

Эксперимент закончился для Microsoft большим скандалом. Поэтому, если говорить о «Тинькофф», то банк еще легко отделался, считает блогер Wylsacom Валентин Петухов.

Валентин ПетуховВалентин Петухов блогер, основатель YouTube-канала Wylsacom «В случае с помощником банка «Тинькофф» мне кажется, что здесь все-таки некорректно этот момент сравнивать. Голосовой ассистент «Олег» еще не готов, и вот он учится как раз, нейросеть еще только начинает понимать, как взаимодействовать с людьми. Это неправильно, потому что одно дело продукты для себя в удовольствие или как какие-то энтузиасты в интернете что-то запустили. Другой вопрос — это все-таки коммерческий банк, который занимается серьезным бизнесом. В данном случае банк на удивление, на мой взгляд, легко отделался».

Из недавних казусов можно вспомнить случай Сбербанка. Генератор кодов прислал пользователю набор букв латинского алфавита. Все бы ничего, но сгенерированная фраза с английского переводилась как «плачь, убивай евреев». Банк извинился. И хотя нейросеть тут ни при чем, все равно трудно понять, почему финорганизация не проработала такие моменты.

Ну а голосовой помощнице от «Яндекса» «Алисе» пока вроде удается держать марку. На какой-нибудь каверзный вопрос о Дональде Трампе дипломатично отвечает: «Не уверена, что все верно поняла». И даже в крымской истории ни с кем не ссорится. «Алиса, чей Крым? — Ваш Крым, ваш». Кто бы ни спрашивал.

Рекомендуем:

Фотоистории

Рекомендуем:

Фотоистории
BFM.ru на вашем мобильном
Посмотреть инструкцию