人工智能:要么信任,要么控制?

2016年08月11日 今日头条



我们要么被迫学会信任人工智能,要么试图控制它们。因为当不透明的算法带来灾难时,我们再去要求解释可能就毫无意义了。

今日推荐文章《观点 | 当人工智能出错时,我们可能没有能力理解出错原因》,来自头条号机器之心,有删节。

软件在屏幕后主导着我们大部分的日常生活,从浏览哪类信息到跟谁约会。对某些人,秘密的算法还能判断出他们未来实施犯罪的风险大小。想了解这些黑盒子如何实现这一切是很自然的事情,尤其在它对我们的影响如此直接的情况下。

人工智能始终在进步。例如谷歌最近用一种被称为深度学习的技术在围棋比赛中完胜人类对手,而围棋是一种有几千年历史而且极其复杂的棋盘游戏。研究者还认为深度学习能更快地处理大量数据,因此也能用来寻找更有效的药物。苹果也把此项技术植入了 Siri,使她变得更聪明。


▲2016年3月,谷歌的 AlphaGo 对弈围棋棋手李世石

深度学习系统,或者叫神经网络,是在输入数据(比如数百万张猫图片上)运行半随机计算的节点「层」。这些节点是加权的,而且会通过自我重组得到一个输出,比如一只猫的决定性的视觉识别特征。这个过程叫做训练。谷歌在 2012 年做到了这点,他们把 16,000 个计算机处理器连接起来运行了十亿个独立「神经元」。

这些系统在它们所「知道」的信息的基础上做预测。如果你给一个训练过的神经网络看一张它以前从未见过的猫的图片,它能够以某种程度的确定性说这也是一只猫。研究者用不同种类的数据训练它们,就能让它们做不同的事情,比如不用猫咪照片而用书或人类语音等不同种类的数据训练它们。

如果有了十几层和几十亿个连接,对于给定决策的路径进行反向工程就太过复杂了。到不是说这些系统有魔法。它们还是受数学支配的,只不过是非常复杂的数学。比方说,你烤了一个蛋糕,但这个蛋糕不能被反向还原成开始的原料。怀俄明州大学致力深度学习系统的计算机科学家 Jeff Clune 解释说:「假设你是一个经济学家,我告诉你十亿人的具体购买行为。即使我告诉你所有这些,你仍旧对于会出现怎样的结果一头雾水。」


Clune 补充说,即使连接数量很少的神经网络也要花费几年时间才能被完全破解。

Clune 继续说:「我能看到每个独立神经元背后的代码,但我不知道(它们组合起来的)和声会是什么样的,不知道这个音乐听起来怎么样,我想未来我们会信任那些运行非常好的机器学习系统,但其中的原因我们并不能完全理解,甚至连部分理解都做不到。」

这并不意味着研究者们就不会去试图理解神经网络了。比如 Clune 就开发了一种可视化工具,它能显示神经网络每层中每个神经元在拿到数据时「看到」了什么。他和同事还写了一种算法,它产生的图片能最大限度地激活单个神经元,以确定它们在输入数据流中到底在「寻找」什么。


谷歌的工程师们正是运用这种反向方法去搞清楚神经网络在构建 Deep Dream 时到底做了什么,这个程序能纯粹根据网络对这个世界的理解生成一系列迷幻的图片。一个解释这种方法的谷歌博客上写道:「理解每一层上到底发生了什么是神经网络领域的一大挑战。」

我们的终极目标并不是要理解这种超智慧存在的神秘大脑的运作方式,而是要让这些程序能在非常基本的层面上更好地运作。Deep Dream本身就暴露出这样一个问题:计算机对于日常物品看起来的样子会产生非常奇怪的想法(更别说也是不准确的)。

但事实是,深度学习是我们到目前为止构建的最有效的机器学习形式,而且科技界也深知这一点。这也就是为什么这项技术已经投入应用了,但我们对它还缺乏更深入的理解的原因。

我致电了伦斯勒理工学院认知科学系主席、计算机科学家 Selmer Bringsjord,想了解他对这个问题的看法。他告诉我所有这些意味着一件事:「我们正向着一个黑暗的未来前进,未来充满了黑箱。」


目前的算法在分析在犯罪风险时已经会区别对待不同种族的人群了,这种情况下谈论对黑箱的信任并没有什么帮助。一篇最近的论文还发现一个规模和访问量都很庞大的机器学习数据库中含有种族主义和性别歧视的语言。

我们如何确信机器人不会变得嗜血或有种族歧视呢?我们要做的第一步也许就跟欧盟的算法鉴别法案建议的一样:确保决策链中有人类的参与。当然,我们也无法确保人类不会有偏见,或者在某些情况下——比如自动驾驶汽车,让人类去发号施令也许是不可能的或者不可取的。


Bengio 认为,我们应该有选择地给这些系统投喂数据。比如,我们可以确保神经网络不会看到《我的奋斗(Mein Kampf)》(希特勒自传)一书。相反我们可以让计算机阅读《爱心树(The Giving Tree)》或者W·E·B·杜波依斯的作品。

Bengio 说:「一旦我们了解了问题所在,比如说我们不想让计算机依赖某些特定类型的信息,那我就可以训练它们忽略这些信息。」

他还补充道,也就是说禁止深度学习和先进人工智能底层技术的研发是毫无意义的,但我们可以引导它朝着有利于人类的方向发展。但要做到这一点需要政治意愿的参与,而不能只是让企业追逐自己的利益。


无论这些系统用来做什么——杀人还是会计——也无论我们怎样监管它们,我们始终无法理解它们。将来受深度学习进程驱动,对人工智能做的决策要求「解释获得权」几乎是不可能的。

坦白说,人工智能有效,现代科技产业也正因此而促使着这项我们无法理解的技术不断扩增,目前的问题是:我们该做些什么。

根据 Bengio 的建议,我们要么被迫学会信任这些系统,要么试图控制它们。因为当不透明的算法带来灾难时,我们再去要求解释可能就毫无意义了。


长按二维码,勾搭头条君

你关心的,才是头条丨今日头条

收藏 已赞