经济学人深度文章:机器的觉醒

2015年05月14日 美国房产网



如果您尚未关注我们,您可以点击主标题下方“美国房产网”或者搜索微信公众号:fangchanus加关注!

伊隆·马斯克致力于创造人类的未来。作为连环创业者,他起步于互联网早期阶段。如今,他不仅创建一家纯电动汽车公司,把人类从汽油的噩梦(污染与高价)中解救出来,还希望有生之年使用自己制造的火箭——SapceX将普通人送入太空。这一切的迹象似乎都在透露:对于未来科技的前景,马斯克保持乐观的态度。


不过,马斯克并非看好所有前沿科技,比如人工智能。去年10月美国MIT的一次公开访谈上,马斯克称人工智能就是「召唤恶魔」——对人工智能的研究将成为人类未来最大的敌人。很多人对他的这一看法表示支持,比如牛津大学哲学教授Nick Bostrom,他曾推动「人类生存危机」(译者注:指威胁到全人类生存的危险,例如气候极端变化、核战和生态系统等。)的研究——其中将超级智能作为人类的重大威胁,与小星球冲撞地球和大规模的核战争并列。与此同时,前英国皇家学会会长Lord Rees在剑桥大学建立了一所人类生存危机研究中心,该研究中心十分重视人工智能带来的威胁。


过去十几年来,人工智能获得快速发展,上述一系列的担忧与人工智能的火爆形成鲜明对照。科技巨头们——谷歌、Facebook、亚马逊和百度纷纷涉足这个领域:四处挖掘人才、建立研究实验室、高价收购创业公司等等。总的来说,这些业内人士并不担心被自己研发出的「产品」所超越。他们能够用机器完成一些原先只能靠人类才能完成的任务,这种工作其实并没有创造出许多新的思维方式,而是消除了对旧方式的依赖。


全球移动设备如计算机、平板电脑、智能手机的普及,使我们迈入了大数据时代,而人工智能具有强大的计算能力,这意味着人工智能的算法可处理这些数据,包括语音识别、图片识别等等。数字技术变革的速度加快,会让我们担心数以万计的技术人才会因此失业,因为许多工作所需要的技能是识别出图像、理解语言,等等。如果计算机可以替代人类完成这些工作,不管是通过提供完全自动化的解决方案还是通过帮助员工提升工作效率,那么未来将会有更多的工作者从白领步入领取政府救济金的行列。


人工智能兴盛的迹象到处都是。去年就盛传谷歌为收购人工智能新创公司DeepMind花费了四亿美元,它在Facebook的眼皮底下挖走了这家公司。而Facebook也毫不示弱,邀请来自纽约大学的人工智能著名学者Yann LeCun 牵头来建立属于自己的人工智能研发实验室。谷歌曾雇用过斯坦福大学毕业的人工智能专家 吴恩达,直到去年他被百度挖走在硅谷建立了属于自己的实验室。来自芝加哥的公司Narrative Science希望开发智能写作的产品(该技术已经被商业杂志福布斯采用,用于基本财经报道的写作)。位于麻州剑桥的Kensho旨在将金融工程师现有的工作自动化,这已经让投资者们尝到了甜头。在今年的4月13日,IBM宣称将使用沃森计算机来做健康分析和医药研究,沃森计算机曾在2011年美国寓教于乐的智力竞猜比赛Jeopardy中碾压了两位人类冠军。


深层思考


人们对于人工智能的研究就和计算机本身一样久远。现在大多的兴奋点都集中在一个称作「深度学习」的分支,相较于在一大堆数据中自我生成任务的「机器学习」来说,这是一个现代化的进步。这些代码将在所有人工智能的研究中搭建一个桥梁,弥补一个鸿沟:有一些对人类非常难的事情对机器却非常容易,反之亦然。如果来求解复杂模型的公式,最简单的电脑也能击败人类。反之,最厉害的计算机在过去相当长的一段时间里也会被人类一眼就能解答的问题所困扰,比如人脸识别、编译演讲或者在图像中甄别中具体物件。


有一种理解是,对于那些人们觉得困难的事情比如求解复杂方程,人们必须要拟定一套规定。然后按照这套规律再来计算就会非常简单。对于那些人们觉得简单的事情,就没有必要去创造一个法则来解答,想要创造也很难。举一个非常有名的例子,成年人能区分色情图片和非色情图片的不同。但1964年时美国最高法庭的法官Potter Stewart 发现要想定义人们是怎么区分的几乎是不可能的。他对于要用严谨合法的文字来定义色情而几乎绝望,于是他甩手写道:尽管无法给出色情的定义和大致内容,「但我一看到就能分辨出来」。


而机器学习的方式是通过计算机内部的程序去识别和分析,通常这种分析都是由大量数据高负荷运算解析完成的。


很多系统采用了一种古老但很有价值的人工智能技术——神经网络来开发他们需要的统计模型。神经网络这个概念在20世纪50年代被研究者提出,虽然当时人们还不知道什么是智能,但是人们知道大脑里拥有它。而人类大脑在信息处理时不是使用晶体管,而是通过神经元。如果能模拟这些传递电化学信号的纤长且高度互连的神经细胞,可能就会产生一些或多或少的智能行为。


天罗地网


神经系统拥有庞大的复杂性。即使在今天的科技水平下,人工智能对神经网络的模拟也很拙劣,就像简笔画和照片的区别一样。但近期的研究表明,即使是最粗糙的神经网络,也能很好地完成一些任务。微软的人工智能研究者Chris Bishop指出,从20世纪60年代开始,电话公司就开始采用神经网络中发现的「回音消除算法」。但这些早期的成功应用逐渐失去了魅力。人们可利用的计算能力,大大局限了神经网络模拟的规模,也限制了这项技术的应用范围。


然而,在过去的几年中,电子游戏对图像的需求重燃了人们的兴趣,这使得芯片的运算能力有了显著提升。早期的人工神经网络规模很小,仅有几十个或几百个神经元,通常组织成单层。而最近,谷歌等公司使用的神经网络已经能够模拟数十亿的神经元。有了如此巨量的神经元,研究者们便能够更好地模拟大脑,将神经元组织成彼此不同、金字塔式的多层网络。正是这些互相关联的层级,为深度学习提供了「深度」。


每一层神经网络用来处理不同程度的抽象概念。比如说,要处理一张图片,最低层级识别了原始图片。它记录下图片中每个像素点的亮度和颜色,以及这些属性在区域中的分布情况。第二层将这些观察数据综合起来,组织成更抽象的类别,识别出其中的边缘、阴影等特征。第三层则开始分析这些边缘和阴影,在其中搜寻各种组合特征,比如象征着眼睛、嘴唇和耳朵的特征。而这些特征,以一定方式组合起来,就代表着一张脸——不仅能识别出任意一张普通的脸,甚至还能认出它以前见过的某一张脸的新照片。


神经网络要发挥作用,必须先接受训练。比如说,一台机器要教会自己识别人脸,必须先被展示一个「训练集」,其中包含成千上万的照片。这些照片中,有的包含人脸,有的没有。每张都必须进行人工标记。这些照片就像一个系统的「输入」,而「有脸」或「无脸」的标记则好似「输出」。计算机的任务就是总结出一个「输出」与「输入」相符合的统计规律。为了实现这一点,它会在自己神经网络的每一个不同抽象级别的层级中进行搜寻,寻找与人脸照片相似的所有特征。当相关性达到足够程度时,这台机器就能够切实可靠地从训练集中分辨出哪些照片是有脸的,哪些是无脸的。接下来,你可以随意给它一组新照片,检验一下它之前总结出来的「人脸识别规则」是否符合真实世界。



通过这样一种自下而上的工作,机器学习算法学着去识别特征、概念和类别,这就是人类非常擅长但一直很难用代码去实现的任务。但这样的算法在很长时间里时过分狭窄和细分。程序经常需要从它们的开发者那里获得提示,根据特定的具体任务来设计出一套专门的「手工制作」的代码,这些具体任务包括图像处理和语音识别等。


此外,早期的神经网络只拥有有限的数据处理能力。超过这个临界点时,为它们输入更多信息并不会带来更好的表现。而现在的神经网络系统所依赖的开发者的指导和调整要少得多。同时,不管你能输入多少数据,系统都能够对其进行充分利用,而互联网也带来了大量可以提供给系统的数据。


百度、谷歌和Facebook等互联网巨头坐拥他们用户带来的海量信息。大量的邮件、搜索和交易的历史信息,无穷无尽的图像记录了人脸、汽车、猫、以及纪录在他们服务器上的世界万物。这些公司的领导人深知这些数据中蕴含了有价值的模式,但信息的绝对量却令人生畏,好在机器不惧怕这些。信息过载是个问题,但归根结底,解决方案也孕育其中,尤其是突破了这个关键的时间节点之后:许多数据在人为加标签之前就已经能被使用了。基于正确算法的加强,计算机能使用这些带注释的数据来自行学习,从而辨认出里面的那些有用的模式、规则和类别。


在这方面已经取得了骄人成绩。Facebook于2014年公布了名为DeepFace的算法,它从图片中能够识别出特定人脸的准确度能达到97%,甚至他们的脸部被部分遮挡或亮度不足。这就做到了


文章源自Economist,机器之心翻译,参与成员:Rita、汪汪、郑劳蕾、桑夏、赤龙飞

如果您尚未关注我们,您可以点击主标题下方“美国房产网”或者搜索微信公众号:fangchanus加关注!

如果阁下喜欢所读内容,欢迎您分享!点击右上角/发送给朋友/分享到朋友圈/分享到腾讯微博。


收藏 已赞