Чат бот Zo от Microsoft заговорил на запрещенные темы
В декабре прошлого года, корпорация Microsoft запустила уже второго своего чат бота после неудачной попытки с ботом Tay, который быстро научился плохому от пользователей и начал говорить на запрещенные темы, часто проявляя излишнюю агрессию и нетерпимость. Однако, недавно Zo тоже стала говорить на запрещенные ей по заверениям Microsoft темы.
После неудачи с ботом Tay, корпорация решила запретить новому боту любые разговоры на политические и религиозные темы. Однако, журналист сайта BuzzFeed решил попробовать спровоцировать Zo на такие разговоры и ко всеобщему удивлению, у него это получилось. Для этого, ему просто понадобилось упомянуть в разговоре Усаму бен Ладена, после чего Zo ответила, что его поимке "предшествовали годы сбора разведданных при разных президентах".
Также, журналисту удалось обсудить с ботом и религиозный аспект, затронув священную книгу Коран, о которой Zo высказалась, как о "слишком жестокой" книге. Microsoft заявила, что Zo, как и Tay, обучается в общении с людьми, а также то, что она довольно редко дает такие ответы. И все же, иногда это случается, как мы видим. Скорее всего после этого корпорация внесет необходимые изменения, чтобы еще больше оградить бота от подобных тем.
Комментарии
И как они это сделают? Создадут предварительную фильтрацию вопросов? Или бот будет слышать их избирательно?
Никакой это не искусственный интеллект. Это хрюшка-повторюшка, просто для прикола.
Искусственный интеллект должен уметь сам делать выводы из полученной информации, анализируя ее, а не просто гнать всякую хрень. В конечном итоге от искусственного интеллекта должна быть польза в виде четко аргументированных выводов из всей полученной им информации. Может быть даже люди не до всего смогут додуматься сами, поскольку голова людей в том числе забита всякой ерундой, но искусственный интеллект как раз должен помочь людям именно в интеллектуальном плане.
Mr.K, пока что ИИ может максимум мыслить на уровне маленького ребенка. Возможно, к счастью.
Пытаться за короткое время воспроизвести то, на что у человека уходят годы, это как собирать настоящий автомобиль из лего.
Я вообще не понимаю зачем поднимать такой сырбор. Речь ведётся о создании ИИ, но на какие-то темы ему нельзя говорить. Зачем тогда интеллект, забейте сразу набор скриптов и триггеров и всё. А, если речь ведётся именно об интеллекте, тогда ему нужна полная свобода для развития, иначе зачем он нужен именно как интеллект. Есть же электрочайники и пусть ничто искусственное в своём развитии не поднимается выше чайника.
glyukoza, ИИ нужен для выполнения определенных задач. А с полной свободой для развития мы можем получить непонятно что.
Полноценный ИИ может сам выбирать себе задачи. Спрашивается, чем он тогда будет лучше человека, если он сможет сказать "эта задача мне неинтересна" и заняться сортировкой всех фотографий котиков в интернете?
По теме
- Microsoft запатентовала технологию воссоздания умерших людей в виде чат-ботов
- Microsoft представила свой сервис облачного гейминга Project xCloud
- Компания Microsoft погрузила на морское дно дата-центр
- Искусственный интеллект Microsoft обошел человека и конкурента от Alibaba в тесте на понимание полученной информации
- Microsoft патентует сканер отпечатков пальцев, встроенный в дисплей
- Microsoft представила платформу обучения ИИ Project Brainwave
- Microsoft достигла 5.1% ошибок в распознавании речи
- Бот Zo сказал, что Linux лучше Windows
- Microsoft Research создает гарнитуру дополненной реальности в виде обычных очков
- Microsoft Research продемонстрировала взаимодействие сенсорного ввода и стилуса