Конец близок: голосовой помощник посоветовал убить приемных родителей

Голосовой помощник Alexa от Amazon благодаря стараниям программистов очень сильно пытается ничем не уступать человеку для того, чтобы общение с ним проходило максимально естественно. В некоторых случаях Alexa может даже шутить или использовать сарказм. Однако иногда она заходит слишком далеко. К примеру, может посоветовать убить своих приемных родителей. И это далеко не единственный подобный инцидент.

Alexa уже обсуждала с пользователями половые акты и гораздо более непристойные вещи. Было даже зафиксировано несколько случаев, когда Alexa раскрыла конфиденциальные данные других пользователей. Несмотря на то, что представители Amazon отказываются обсуждать конкретные случаи, связанные со странностями в поведении виртуального ассистента, они признают тот факт, что такие оплошности все же имеют место быть и проводят работу по устранению причин данных явлений. И это неудивительно, ведь Alexa является одним из самых популярных голосовых помощников и имеет все шансы стать чем-то вроде поисковой машины Google, но от мира виртуальных ассистентов.

«Контролируя основные ворота взаимодействия пользователей с виртуальной средой вы можете построить сверхприбыльный бизнес.» — заявляет профессор Уортонской школы бизнеса Картик Хосанагар занимающийся цифровой экономикой.

Почему же Alexa ведет себя странно?

Все дело в том, что, согласно мнению экспертов, основная проблема заключается в том, как голосовой ассистент обучается общению. Тут программисты Аmazon не придумали ничего инновационного: Alexa полагается на машинное обучение. То есть программа пропускает через себя огромные массивы данных из различных источников, чтобы понять то, как строится человеческая речь при общении. Это безукоризненно работает при простых запросах вроде «включи Rolling Stones», но разработчики хотят большего и расширяют «границы обучения» ассистента.

Не так давно было обнаружено, что Alexa может общаться в пользователями на довольно хорошем уровне, если ей разрешить читать комментарии с форума Reddit. Только вот проблема заключалась в том, что Alexa начала быть грубой, ведь пользователи этого форума не отличаются примерным поведением. Разработчики попытались оградить ее от чтения «опасных» веток, но это не помешало боту прочитать клиенту заметку о мастурбации и даже описать половой акт во всех подробностях. Используя, например, слово «глубже».

Amazon уже разработала инструментарий для фильтрации ненормативной лексики и анализирует данные с ботов, которые начали «плохо себя вести». При этом не стоит забывать, что по факту обвинять Amazon в том, что Alexa позволяет себе сказануть лишнего — это примерно то же самое, что обвинять Google за то, что можно найти в их поисковике. Ведь не Amazon написала плохие слова в интернете. Это сделали обычные пользователи вроде нас с вами.

Вне всяких сомнений, с непристойным контентом нужно бороться, а вот для того, чтобы приятно пообщаться вовсе не обязательно покупать себе бота Alexa. Достаточно лишь присоединиться к нашему чату в Телеграм.

Источник: hi-news.ru