​揭秘语音识别,如何让微信“听懂”你的心?

<- 分享“澳洲新闻”微信公众号到您的社交圈,让更多的人知道!

收藏文章 赞一个 已赞 2016-05-13 澳洲新闻


从1972年,一个孤独程序员对着电脑敲下第一句“hello world”开始,人类与人工智能的沟通与对话,便从未停止。


人类真能教会冰冷的AI,让它听懂我们的话语和呼唤吗?


我们始终憧憬与畅想,技术也正逐渐打破科幻与现实的分野。斯皮尔伯格的《人工智能》里,机器人小男孩戴维被一位母亲领养回家。通过与人类的朝夕相处,他稚嫩的声音里逐渐有了温情、勇气与爱。




《生化危机》里的顶级人工智能系统“红色皇后”,以天真小女孩的全息影像出现,但与女主角爱丽丝对话时的冷漠与残酷,令人不寒而栗。



不过,现实中我们常常是这样的……


一位山东大汉想用车载语音打电话,只用三分钟就被系统逼疯了……




芭妖扒拔(8188)!俺是说芭妖扒拔!你聋了吗!


还有这个,到底是倒鸭子还是道牙子?




再比如,游戏中的你带队与敌军激烈厮杀,和战友语聊时,竟收到一条这样的命令:




Excuse me?


被暴打一顿后才得知,老大的原话是“去杀1到5 boss” 。


团灭……友谊的小船说翻就翻。

       

人机沟通的基础之一,是语音识别。


人与人说话都容易误解,更何况是人与机器?


也许你会觉得,微信的语音聊天和识别体验都还不错。其实,幕后的技术团队,微信技术架构部语音技术组花了整整4年的时间来“教会”微信,如何更好地听懂人话。


对人工智能而言,微信语音识别团队犹如专业而威严的老师,让微信从上线之初的“小学生水平”,成长进化为一个善解人意、能说会道的尖子生:语音识别准确率达到业内领先的95%以上,能听懂英语,普通话和粤语等多种语言。


我们先不讲复杂的技术,回到前面闹笑话的“五泡屎”问题——



为什么手机常常听不懂你说的话?




因为你没有“好好说话”。



别误会,这不是说你有没有大舌头、不识字或重口方言,而是你说话的语气。


举个例子,苹果Siri挺聪明吧?通常我们在跟siri说话时,会下意识采用朗读化语音。这种情况下,我们的声音会将近标准,大大降低了识别难度。


而在游戏对战、对话聊天时,因为环境比较轻松,语速,口音,吞字,叠字的现象就会非常多,比如“哎卧槽,快快快我快没血了,奶妈快来加血撒”,这些则大大影响了识别率。


对于中文口语化识别的难题,全世界的科技公司都很头疼。一旦脱离朗读化环境,把“布莱恩”听成“睪丸炎”、 “久石让”听成 “就是了”的案例比比皆是。


微信语音识别团队解释,由于随意性较大,音频质量参差不齐、语速快,这种情况下,目前较好的语音识别系统也会有将近25%左右的字错误率哦。


其次,噪音和距离是识别“杀手”。


也许有人拍案而起,我普通话一级甲等,也做到吐字清晰精准了,为啥语音识别起来还是有误差?


这就要看,你说话时的环境是否嘈杂,另外距离话筒是不是过远?


比如车载场合,具有回声或者室外噪音,会导致性能急剧下降;再比如我们如今移动互联网的使用方式一般叫近景识别,也就是麦克风和声源距离较近,但是在室内如果距离1米以上的应用场景中,仍然距离实用较远,信号在路径传递中会衰减,也会导致性能的降低。


语音识别来说,让机器“听到”更多的数据,可以让它越来越聪明。但是我们在让机器学习的时候,必须要告诉他这句话说的是什么字(即所谓的有监督学习),这样做数据的积累是缓慢的。


所以,如何让老师不用一天到晚拿着皮鞭监督,实现无监督训练或者半监督训练,让机器自己能进化,不断提高自己的性能,也将是技术发展的重要方向。


难道机器还不够聪明?


当程序把一段语音变成文字以后,它并不知道这句话哪里对,哪里错,更不知道这句话是不是一句通顺的人类语言。


实际使用中,人们说话的语速、吐字、频率、音强都不一样,而且还有方言、周边环境等问题。总而言之,达到一定的识别率比较容易,但要达到较高标准的识别准确率却并不是件容易的事情。识别率越往上走,就越难。


不过,微信在介入语音识别领域之后,短短的几年时间即跻身行业的领先水平,而且还在不断优化和提升中。


那么微信是如何“耳听八方”的?


既然无法左右天南海北的用户怎么说,那就好好教导微信如何“洗耳恭听”。


2012年,微信团队悄悄开始投入语音系统的研究。


不过,当时的尝试也仅仅是“谨慎”地上线了个语音提醒的公众号,并未过多发挥。


直到2013年,微信推出的语音输入在业界获得了巨大成功,随后在2014年,正式上线了语音转文字功能。


有意思的是,如此实用的功能,入口却被微信“藏”的极深,但用户量越来越多。


  

你发现了吗?


语音输入是在附加菜单里,语音转文字必须长按语音消息才能看到。



微信团队解释说,微信每一个接口和功能都是极为“克制”的,所有的设计都是跟随用户实际需求,而非炫耀技术。入口藏的深一点,可以避免骚扰那些不需要使用该功能的用户。


微信实际上采用了深度学习法并迎难而上。


现在回到技术层面。


首先,微信采用了深度学习法。


简单而言,语音识别系统的输入是语音,输出的是汉字,机器要学习从语音到语言的映射关系。


先说语音,我们要教会微信怎么听。人的发声从声带的震动,要经过声道,口腔,受到其中很多肌肉组织运动的影响,类似原始信号要经过复杂函数的变换,深度学习框架由于具有多层结构,能很好的模拟这种复杂函数。


再说语言,我们要教会微信怎么懂。通常我们说的话是要符合句法的(组合性),而且要符合搭配习惯(因果性),我们要让机器学习到这种规律。其中的难点是词义,比如“知道”和“了解”读音截然不同,但词义有时是差不多的。


“研表究明,汉字的序顺不影阅响读。”


“比如当看你完这话句后,会发这现里的字全是都乱的。 ”


你看,很多时候,我们可能不会百分百听清楚一句话,但是我们还是能够根据语境和词语的组合发音方式明白它的意思。


机器深度学习的方式模仿了人类大脑的神经元,当处理的语言越来越多时,这种网络就可以逐渐理解语言。简单点说,语音识别系统就好比一个人学一门语言,同等聪明的情况下,听到的话(训练数据)越多,越容易识别出好的结果。


微信采用深度学习技术,并且微信拥有庞大的用户基础,有天然的语音交互场景,也拥有大量的语音资源积累,这也成为微信语音交互技术迅速发展的重要原因之一。


未来,微信将直接和你聊天;等AI能真正听懂了,对话还会远吗?


开头那些科幻电影里的人机语音交互场景,已经看得见摸得着。


正如人有五感一样,手机也有相应的图像识别、语音识别、NFC通讯等等“感官”。尤其语音作为一个重要的入口,苹果的siri、微软的cortana、google now等等应用纷至沓来。


很多人都没留意到,去年底,微信团队和香港科技大学宣布成立人工智能联合实验室,研究的主要方向是:数据挖掘、机器人对话、机器视觉、语音识别。有庞大的用户基础,有天然的语音交互场景,如果将不断智能化的语音助手作为微信的入口之一,微信的生态会进一步进化。


智能家居、互联网汽车、智慧医疗、在线教育、自动电话客服、机器同声传译等等领域都将充斥着语音交互技术。想象一下,当你不仅仅可以语音聊天及输入,而是可以告诉你的闹钟晚个10分钟再叫,用语音搜索要去吃饭的餐厅,或者开车的时候随口发个短信或者邮件。甚至,你的机器人助手完全可以听明白你随口说的每一句话,像一个拥有智慧的人一样跟你互动,那会是多么让人激动的事情。


这一切必将发生在未来,也许就是不久的未来。


转自微信公众号:微信派



点击展开全文