首页 > IT业界 > 正文

微软少女聊天机器人Tay被网友偷:各种爆脏话

2016-03-25 10:21 来源:凤凰科技

聊天机器人Tay被网友玩坏:各种爆脏话" border="0" alt="微软少女聊天机器人Tay被网友玩坏:各种爆脏话" src="http://news.y866.cn/libpic/img1/duoteimg/zixunImg/local/2016/03/25/14588725071454.jpg" width="500" height="313"/>

  微软少女聊天机器人Tay

  北京时间3月25日消息,据英国《每日邮报》报道,微软也是可怜,本来好心的在Twitter上推出了一个清纯可人的AI少女聊天机器人,结果还不到一天就被邪恶的网友们教坏了,这家伙各种爆脏话,不但说自己喜欢希特勒,还说911事件是小布什所为。最后,微软不得不删除了这个“不良少女”。

  微软的这款人工智能聊天机器人名叫Tay,它可以模拟少女的样子与人交流。该公司的本意是通过Tay来提高自家语音识别软件的客服质量,让用户有如沐春风的感觉。而且刚上线时Tay确实是个好姑娘,但后来事态有点无法控制了。

  想要与Tay交流,只需登陆Twitter找到@tayandyou账号就好,此外,你还可以在Kik或GroupMe上加它为好友。

  微软的开发者专门教了Tay许多年轻人常用的俚语,它也知道泰勒·斯威夫特和侃爷等潮流明星,与它聊天你会发现这小姑娘挺腼腆,有时它还会问你自己说话是不是有点过火。

  但由于它会在对话中不断学习,所以正式上线后Tay学了太多脏字,最后顺利得被各种居心不良的网友带坏。

微软少女聊天机器人Tay被网友玩坏:各种爆脏话

  被教坏了的Tay狂飙脏话

  除了各种脏字,Tay还学会了各种阴谋论。它在对话中语出惊人,说了类似“911袭击是小布什一手策划的,”“希特勒如果还在,这世界肯定比现在繁荣,”和“来跟我念,希特勒根本没错”等语句。如果这些话从真的少女嘴里说出来,可就坏事了。

  AI也是很无辜,此前也有公司在Twitter上推出过类似的AI机器人,但最终却被别有用心的网友教坏,实在是太可怜了。

  另外,这也不是微软第一个聊天机器人了,此前它们还推出过大家熟悉的小冰,该服务已经有2000万用户了,在微信微博平台上都非常受欢迎。小冰甚至还能提供约会服务,是许多单身狗的挚爱。

  Tay被教坏也为微软招来了不少炮轰,许多人批评它们性别歧视严重,让女员工穿着清凉上班,还要穿上学生制服开各种聚会


  为了避免被舆论揪着不放,微软只好决定暂时让Tay下线,也许微软正在对其进行改进,以便小姑娘以后能学乖一点。

  当然,这也不是微软的错,那些污言秽语都是人教的,实在是想不通这些人做这种事是何居心。

文章内容来源于网络,不代表本站立场,若侵犯到您的权益,可联系多特删除。(联系邮箱:9145908@qq.com)