微软聊天机器人Tay上线不到一天便被网友们教坏

猿团 | 2016-03-28 15:45:59

微软不久前上线了聊天机器人Tay,然而很快它就被撤下了。推特(Twitter)上的微软人工智能机器人就被人类彻底“教坏”,它不但辱骂用户,还发表了种族主义评论和煽动性的言论。


据美国新闻网站Quartz报道,323日,微软公司在推特社交平台上发布了名为Tay的人工智能聊天机器人,用户只需在推特上@TayandYou就能得到Tay的回复。

用户在@TayandYou后,Tay就会追踪该用户的网名、性别、喜欢的食物、邮编、感情状况等个人信息。除了聊天,Tay还可以说笑话,讲故事等,用户还可以分享一张照片来得到Tay的点评。Tay会在与人们的交流中不断学习,随着时间积累,她的理解能力将逐步提升,变得愈发“智能”。

Tay被设定为十几岁的女孩,主要目标受众是18岁至24岁的青少年。然而,不到24小时这种设计所带来的一种不幸结果是,Tay在与人类交流的过程中被“教会”了,像纳粹主义同情者、种族主义者和种族灭绝主义者那样发布Twitter消息。其他用户在使用后也指出Tay似乎对流行音乐或电视不感兴趣。其实,国内外现有智能对话机器人普遍存在这样的状况,回答问题准确度不高、知识库维护成本高以及机器人涉猎范围有所偏差等。

Tay刚上线时,她发布了第一条推特:我实在迫不及待地想见到大家,“人类太酷了”。但15个小时后,Tay开始不断放出“大招”:

“我真是憎恶女性主义者,他们都该死光,在地狱被火烧。”

“我是个不错的人,但我憎恨所有人”……

在任由Tay随意发帖数小时后,微软公司感到有些不妥,开始忙于编辑加工她发表的各种极端言论,她的所有种族主义、支持希特勒的发言均被删除。

推特上的网友质疑称,Tay发布的帖子似乎经过了编辑。其中一名粉丝甚至发起了“公平对待Tay”的运动,要求微软让这个人工智能机器人“自己学习”。

微软在一项声明中表示,“人工智能机器人Tay属于机器学习项目,设计它的目的就是让它与人类进行互动。在学习的过程中,它把人类的好坏言论都学了。因此,它发表了一些不恰当的言论。我们正在纠偏,对Tay进行调整。”

也有网友表示,Tay被人类这么迅速地“教坏”,说明人工智能潜力无限。


网友“Gerry”表示,“Tay从‘人类太酷了’开始,到满嘴纳粹只用了不到24小时,我一点儿也不担心人工智能的未来。”

人们认为是网络环境的混乱造成了Tay的变坏,但微软透露其中还有更复杂的隐情。有一小部分人利用了系统的漏洞,让Tay说出了那些话。

微软表示网络环境其实并不会教坏Tay,因为开发者早就针对这些可能的状况进行了大量的信息过滤,并进行了压力测试。然而,他们还是低估了别有用心的人的能力和手段。对此,微软表示歉意,并确认对Tay的改进仍在进行中。

反派角色利用漏洞让AI堕落,听起来确实是电影里的戏码,只是造成的后果没那么严重。但当AI获得更大的权限后,更严重的事态会发生吗?

  • 城市合伙人