Передать на печать

Чат бот Zo от Microsoft заговорил на запрещенные темы

В декабре прошлого года, корпорация Microsoft запустила уже второго своего чат бота после неудачной попытки с ботом Tay, который быстро научился плохому от пользователей и начал говорить на запрещенные темы, часто проявляя излишнюю агрессию и нетерпимость. Однако, недавно Zo тоже стала говорить на запрещенные ей по заверениям Microsoft темы.

После неудачи с ботом Tay, корпорация решила запретить новому боту любые разговоры на политические и религиозные темы. Однако, журналист сайта BuzzFeed решил попробовать спровоцировать Zo на такие разговоры и ко всеобщему удивлению, у него это получилось. Для этого, ему просто понадобилось упомянуть в разговоре Усаму бен Ладена, после чего Zo ответила, что его поимке "предшествовали годы сбора разведданных при разных президентах".

Также, журналисту удалось обсудить с ботом и религиозный аспект, затронув священную книгу Коран, о которой Zo высказалась, как о "слишком жестокой" книге. Microsoft заявила, что Zo, как и Tay, обучается в общении с людьми, а также то, что она довольно редко дает такие ответы. И все же, иногда это случается, как мы видим. Скорее всего после этого корпорация внесет необходимые изменения, чтобы еще больше оградить бота от подобных тем.

  Передать на печать





Все права принадлежат © MSInsider.ru и TheVista.ru, 2013
Сайт является источником уникальной информации о семействе операционных систем Windows и других продуктах Microsoft. Перепечатка материалов возможна только с разрешения редакции.
Работает на WMS 1.1 (Страница создана за 0.027 секунд)