聊天机器人Tay被网友玩坏:各种爆脏话" border="0" alt="微软少女聊天机器人Tay被网友玩坏:各种爆脏话" src="http://news.y866.cn/libpic/img1/duoteimg/zixunImg/local/2016/03/25/14588725071454.jpg" width="500" height="313"/>
微软少女聊天机器人Tay
北京时间3月25日消息,据英国《每日邮报》报道,微软也是可怜,本来好心的在Twitter上推出了一个清纯可人的AI少女聊天机器人,结果还不到一天就被邪恶的网友们教坏了,这家伙各种爆脏话,不但说自己喜欢希特勒,还说911事件是小布什所为。最后,微软不得不删除了这个“不良少女”。
微软的这款人工智能聊天机器人名叫Tay,它可以模拟少女的样子与人交流。该公司的本意是通过Tay来提高自家语音识别软件的客服质量,让用户有如沐春风的感觉。而且刚上线时Tay确实是个好姑娘,但后来事态有点无法控制了。
想要与Tay交流,只需登陆Twitter找到@tayandyou账号就好,此外,你还可以在Kik或GroupMe上加它为好友。
微软的开发者专门教了Tay许多年轻人常用的俚语,它也知道泰勒·斯威夫特和侃爷等潮流明星,与它聊天你会发现这小姑娘挺腼腆,有时它还会问你自己说话是不是有点过火。
但由于它会在对话中不断学习,所以正式上线后Tay学了太多脏字,最后顺利得被各种居心不良的网友带坏。
被教坏了的Tay狂飙脏话
除了各种脏字,Tay还学会了各种阴谋论。它在对话中语出惊人,说了类似“911袭击是小布什一手策划的,”“希特勒如果还在,这世界肯定比现在繁荣,”和“来跟我念,希特勒根本没错”等语句。如果这些话从真的少女嘴里说出来,可就坏事了。
AI也是很无辜,此前也有公司在Twitter上推出过类似的AI机器人,但最终却被别有用心的网友教坏,实在是太可怜了。
另外,这也不是微软第一个聊天机器人了,此前它们还推出过大家熟悉的小冰,该服务已经有2000万用户了,在微信和微博平台上都非常受欢迎。小冰甚至还能提供约会服务,是许多单身狗的挚爱。
Tay被教坏也为微软招来了不少炮轰,许多人批评它们性别歧视严重,让女员工穿着清凉上班,还要穿上学生制服开各种聚会。
为了避免被舆论揪着不放,微软只好决定暂时让Tay下线,也许微软正在对其进行改进,以便小姑娘以后能学乖一点。
当然,这也不是微软的错,那些污言秽语都是人教的,实在是想不通这些人做这种事是何居心。
文章内容来源于网络,不代表本站立场,若侵犯到您的权益,可联系多特删除。(联系邮箱:9145908@qq.com)
近期热点
最新资讯