Передать на печать

Microsoft временно отключила Tay и ведет дополнительную настройку

Вчера, спустя всего сутки после запуска Microsoft своего обучающегося чат-бота Tay, стало понятно, что благодаря другим пользователям он обучился совсем не тому на что рассчитывали исследователи и инженеры Microsoft Research и Bing. Из веселого и приятного собеседника, молодежный чат-бот превратился в нациста и грубияна.

Microsoft была вынуждена отключить его и стереть предыдущие твитты, ведь за большинство из них корпорации было стыдно. Представители компании уже сказали, что обучение негативному общению произошло вследствие "скоординированных действий со стороны некоторых пользователей".

Сейчас в компании озабочены дополнительной настройкой и возможно добавлением фильтров против новых попуток обучить бота негативному стилю общения с элементами нацизма и хамства. О сроках его возвращения в сеть пока неизвестно, но пользователи с нетерпением будут ждать этого момента, ведь многим искренне было интересно общаться с ним.

  Передать на печать





Все права принадлежат © MSInsider.ru и TheVista.ru, 2013
Сайт является источником уникальной информации о семействе операционных систем Windows и других продуктах Microsoft. Перепечатка материалов возможна только с разрешения редакции.
Работает на WMS 1.1 (Страница создана за 0.023 секунд)