人工智能在Twitter一天学会骂脏话和种族歧视,微软被自己坑了!

2016年03月26日 图说悉尼



前段时间科技界最热门的一件事情可以说就是人工智能大战李世石了,甚至于到现在,这件事情的余热都还没有消退。没错,相比于人工智能到底能干什么,可能更多的人关心的是它们究竟会不会对我们造成威胁。当然,站在人类最基本利益的考虑出发的话,这样的顾虑也是无可厚非的。


而现在,微软似乎就再用实际行动证明了这种担心的必要性。据悉,在本月23 日的时候,微软开发的一款名为“Tay”的人工智能就在社交网络上出现了。这是微软通过让其在网上与一般人对话进行学习的人工智能机器人( AI )的实验。而仅仅过了一天,微软就宣布了终止这一实验。


原因是什么呢?原来微软新的聊天机器人刚开始测试没多久就被「玩坏了」……在和网友聊天的过程中 TA 竟学会了骂人、说脏话、语言带有攻击性,以及发表带有种族主义色彩的不当言论!微软已对其紧急关停,并开始着手对「Tay」进行纠错和调整。


「Tay」是微软最新处于测试简单的聊天机器人,用于学习和人类对话,并且在社交网络上和 18-24 岁的青少年交流。可是仅仅开始聊天后不到24小时,微软就开始忙于处理「Tay」发表的各种煽动言论。TA 在 Twitter 上发表的一些言论使得 TA 看起来就像是一个纳粹同情者、种族主义者以及种族大屠杀支持者。



有人在 Twitter 上问「Tay」:你支持种族大屠杀吗?「Tay」回答:我支持,真的。


「Tay」是微软技术研究和必应团队开发的,它通过学习大量的匿名对话学会了与人交流。在编程中并未对机器人的交流内容进行设定,都是通过后天学习。但在学习过程中,「Tay」把好的坏的一起学了去,并开始使用那些不当的言论,这让微软始料未及!



有人在Twitter网站上发帖说「Tay刚开始还在聊人类太酷了,到后来满嘴纳粹主义,这才不到24个小时。TA的学习能力太强了。我一点儿也不担心人工智能的未来。」甚至还有网友发起了「公平对待Tay」的运动, 要求赋予「Tay」言论自由,让其重新上线,让 TA 自己学会明辨是非!


如果微软匿名到底,任其发展,到最后这机器人到底能不能在光怪陆离的网络中学会自己明辨是非呢?or变成一个彻头彻尾的混蛋……

收藏 已赞