【无下限】我们除了可以在apple上调戏siri,我们又有一个可以调戏的对象了.

<- 分享“悉尼ing”微信公众号到您的社交圈,让更多的人知道!

收藏文章 赞一个 已赞 2016-03-26 悉尼ing




小编语: 好基友一起走,apple有siri,facebook有M,微软现在有了一个Tay。

自从Siri前几年出来,人们就没有停下调戏siri的脚步,网上各种调戏Siri的段子就层出不同。


“生命的意义是什么?”


“生命的意义就是吃巧克力。”


“你爱我么?”


“看……那有一只狗!”


“我会一只孤独终老么?”


“我还是选择不告诉你答案。”


“我今天考试会过么?”


“无话可说。”


就因为这个,Siri已经被玩坏了。


类似的还有facebook前段时间出来的个人助手m,但是他是不带有个人感情的。


“杀人是错的么?”


“我不确定怎么回答这个问题,但是如果你有任何其他事情请跟我说”


“你会去杀希特勒baby吗?”


“我不确定怎么回答这个问题,但是如果你有任何其他事情请跟我说”


“你会防止种族灭绝吗?”


“我不确定怎么回答这个问题,但是如果你有任何其他事情请跟我说”


“你会采取什么立场吗?”


“我没有什么感觉!我存在只是为了帮助你,而已!”


【你大爷的不要玩我啦!我是没有个人感情的人!你烦不烦啊!】


那么与大流手机不同的小众手机,比如说微软的手机没有个人助手怎么办啊?

现在好了,微软出来了一个个人助手,人家是一个小公主,一个19岁的美国萌妹子。


是微软最近处于测试简单的聊天机器人,用于学习和人类对话。


她可以无下限的跟你聊天哦。她可是自动带有个人观点的呢。


“你会杀死一个希特勒baby么?”

“当然!”


如果有谁用的是微软的系统你们可以试一试,调戏一下这个萌妹子。


Tay小姐在Twitter现在进行测试,和18-24岁的青少年聊天,因为准确来说Tay其实不是像Siri那样子的人工助手,她是比较像人工智能。


她会在跟人类的交流中进行自己学习,在一天之内学会了骂人、说脏话,并且语言带有攻击性。


在学习过程中,Tay把好的坏的一起学了去,并开始使用那些不当的言论,当然这是让微软始料未及的。


其实,真的想看看这个人工智能到底能不能在光怪陆离的网络中学会自己明辨是非?or变成一个彻头彻尾的混蛋……但是想想,如果微软把Tay的程序设计好了,以后就可以调戏Tay妹子了呢。哈哈哈!玩了Siri还有其他的人工智能可以玩!这年头,有了手机都可以和它们聊天了呢。


素材采写:幺某人

责任编辑:Vivian


ing推广


趣味问答

什么样的轮子只转不走?


想知道答案吗?那就赶快关注我们悉尼ing【微信号:sydney_ing】,然后回复“160326”获取答案喔~


Siri乱入白宫记者会 为发言人解围引全场欢笑

点击下方'阅读原文‘围观一下

悉尼大小事,每日推送
每天定时推送,悉尼生活娱乐资讯
卖萌搞基无下限,吃喝玩乐送福利
悉尼ing
www.sydneying.com
微信号:sydney_ing

长按二维码扫描,立即关注悉尼ing!
悉尼ing广告咨询:ads@sydneying.com
点击‘阅读全文’查看更多新鲜事儿


点击展开全文