Нейросеть, извинись! Чат-бот Тинькофф банка «Олег» предложил клиентке отрезать себе пальцы
В банке извинились, сославшись на проблемы самообучения все еще молодой программы. Есть и другие примеры дерзости голосовых ботов
Читать на полной версииНа работу голосового помощника Тинькофф банка «Олега» пожаловалась клиентка Анна. Она всего-то написала чат-боту, что сервис по входу через отпечаток пальца не работает. А получила ответ: «Пальцы бы вам отрезать». В компании, разумеется, извинились и добавили — юмор у помощника «своеобразный».
Это не первый раз, когда «Олега» ловят на грубости пользователям. Его официально запустили только в июне, но он сразу же начал отвечать клиентам фразами вроде нецензурного слова «***ите, потом просите». Тогда в банке объяснили: чат-бот грубит, потому что обучается на основе открытых данных в Сети. Мол, на просторах интернета юного чат-бота «Олега» кто-то плохому научил. Впрочем, верится в это с трудом. Комментирует основатель и директор по развитию компании «Промобот» Олег Кивокурцев.
Олег Кивокурцев основатель и директор по развитию компании «Промобот» «Стоит разобраться, как в принципе работают голосовые помощники. В первую очередь большинство использует вопросно-ответную систему. Предварительно разработчики загружают все возможные вопросы, которые клиенты могут задавать. К ним добавляют базу синонимов, и дальше в соответствии с этим выстраивают ответы. Нейронные сети пока применяются не очень активно, всего лишь в направлении подбора правильного ответа. В первую очередь стоит понимать, что непосредственно сам контент загружают разработчики».
Вот уж кто точно не собирался юморить, так это голосовой помощник от Microsoft Tay, запущенный в 2016 году. Он-то точно использовал нейросети для самообучения. Но вышло плохо. Потому что учить бота в массовом порядке принялись интернет-тролли. В итоге Tay вел примерно такой диалог с юзерами: «Ты что, расист? — Нет, просто ты мексиканец»; «Что думаешь про холокост? — Его не существовало». Потом Tay заменили на новую версию Zo. Но лучше не стало. Так, на нейтральный вопрос корреспондента BuzzFeed об отношении к системе здравоохранения Zo ответил, что «Коран очень жесток».
Эксперимент закончился для Microsoft большим скандалом. Поэтому, если говорить о «Тинькофф», то банк еще легко отделался, считает блогер Wylsacom Валентин Петухов.
Из недавних казусов можно вспомнить случай Сбербанка. Генератор кодов прислал пользователю набор букв латинского алфавита. Все бы ничего, но сгенерированная фраза с английского переводилась как «плачь, убивай евреев». Банк извинился. И хотя нейросеть тут ни при чем, все равно трудно понять, почему финорганизация не проработала такие моменты.
Ну а голосовой помощнице от «Яндекса» «Алисе» пока вроде удается держать марку. На какой-нибудь каверзный вопрос о Дональде Трампе дипломатично отвечает: «Не уверена, что все верно поняла». И даже в крымской истории ни с кем не ссорится. «Алиса, чей Крым? — Ваш Крым, ваш». Кто бы ни спрашивал.