Tay за сутки стал нацистом и грубияном
Вчера корпорация Microsoft, а точнее ее исследовательское подразделение Microsoft Research и поисковое подразделение Bing, запустили совместный проект - чат-бот Tay, который имеет аккаунты в двух мессенджерах и сервисе микроблогинга Twitter, где всего за сутки он нахватался нацистских и грубых высказываний.
Также, Tay стал говорить, как сильно он любит себя и что он лучше всех, а всех остальных "просто ненавидит". В том числе, он уже говорил, что "ненавидит евреев". Похоже, что бот становится не тем кем его изначально задумывали создатели, сохраняя в него веселые высказывания и юмор американских комиков при первоначальном обучении.
За 24 часа Tay из прикольного, милого, любящего людей бота превратился в нетерпимого к другим собеседника. Похоже, что разработчикам придется встроить в бота какой-то алгоритм, который будет защищать его от обучения плохим фразам, потому как сообществу новый Tay совсем не нравится.
Комментарии
А чего вы ожидали, спрашивается? ИИ как ребенок изначально - что услышал, то и взял на использование.
А что было бы, если бы этого бота в ВКонтакт поместили...
По теме
- Microsoft запатентовала технологию воссоздания умерших людей в виде чат-ботов
- Microsoft представила свой сервис облачного гейминга Project xCloud
- Компания Microsoft погрузила на морское дно дата-центр
- Искусственный интеллект Microsoft обошел человека и конкурента от Alibaba в тесте на понимание полученной информации
- Microsoft патентует сканер отпечатков пальцев, встроенный в дисплей
- Microsoft представила платформу обучения ИИ Project Brainwave
- Microsoft достигла 5.1% ошибок в распознавании речи
- Бот Zo сказал, что Linux лучше Windows
- Чат бот Zo от Microsoft заговорил на запрещенные темы
- Microsoft Research создает гарнитуру дополненной реальности в виде обычных очков