人工智能哪儿来的傲慢与偏见?

2016年06月27日 今日头条



当我们谈论起人工智能,为它能下棋、写歌、做视频而喝彩,同时也为它的智力将超过人类、抢走普通人的饭碗而担忧。然而Kate提醒我们,比起人工智能潜在的威胁,由机器算法带来的人类之间的不平等问题才是关键。

今日推荐文章《〈纽约时报〉:白人男性最受优待,人类偏见已延伸至人工智能》,来自头条号机器之心


埃隆·马斯克和 Nick Bostrom 等一些科技界大牛向世界发出了警告:人工智能的存在对人类是一种潜在的威胁,他们把机器智能超越人类智慧的临界点叫做「奇点(the Singularity)」。人们已为此投入了数百万美元,并举办了大批国际会议。


但这种恐慌情绪让人们忽视了今天人工智能的真正问题,其实它可能已经在加剧工作场所、家庭、法律及司法系统的不平等。支持「智能」系统运转的机器学习算法很多在编写时就被加入了性别和种族歧视以及其它形式的不平等观念,这决定了我们被分类和接收广告的方式。


比如去年的那次事件:谷歌有个照片应用,可以自动在电子相册中把标签分配到不同照片上,用户发现它会把黑人的照片归类为大猩猩。谷歌做出了道歉,表示它并不是故意的。


但类似的错误也出现在了尼康的拍摄软件中,它误认为亚洲人在照片中眨眼(译注:其实只是眼睛比较小),还有惠普的网络相机软件也很难识别出深色皮肤的人。




这从根本上说是数据的问题。算法通过送入的特定图像来学习,这些图像通常是由工程师挑选的,而系统在这些图像的基础上建立起世界的模型。如果一个系统的训练图像绝大部分都是白人照片,那它在识别非白人照片时就会有困难。


上个月 ProPublica 发布的调查报道揭露出了一个非常严重的问题。它发现评估罪犯再次犯罪风险的常用软件有两倍的可能性错误地将黑人被告标记为在未来实施犯罪上有更高的风险;它也有两倍的可能性错误地标记白人有更低的风险。


此软件的判断出现如此明显倾斜的原因仍不清楚,因为负责开发相关算法的公司对他们的公式保密——属于私有信息。法官确实在不同程度上依赖于机器驱动的风险评估,有些甚至完全不相信它的意见,但他们很难理解这些评估结果背后的逻辑。


美国各地的警察局也配置了类似的数据驱动型风险评估工具,用来预防「潜在的治安犯罪」。在很多城市,包括纽约、洛杉矶、芝加哥和迈阿密,警察局都会用软件分析量大历史犯罪数据,预测犯罪热点区域最可能出现的位置,并据此部署警力。


这个软件最起码能持续预测出那些原本就是犯罪高发地的风险,因此警察就会在本来就部署(或大量部署)警力的地方增强安保措施,保证了这些地区逮捕率的提高。在美国,这有可能导致对那些传统上贫困的非白人居住区的监控警力的增多,而富裕的白人居住区受到的监控就更少。这些预测软件只擅长分析它们训练时所用的数据,而这些数据有复杂的历史。




歧视的历史可能会延伸到数字平台上,如果我们对此不闻不问,它们最终就会成为日常算法系统的逻辑的一部分。最近又有一桩丑闻曝出,亚马逊的当天送达服务在主要的黑人居住区的邮政编码上是不可用的。而这些被忽视的区域的范围竟然与 20 世纪中期被贷款歧视所影响的区域基本一致。亚马逊承诺他们会填补这些空缺,但这也提醒了我们体制不平等对机器智能的影响有多深。


另外还有性别歧视的问题。去年七月,卡内基梅隆大学的计算机科学家们发现女性在谷歌上收到高薪广告的概率低于男性。由于搜索引擎向互联网用户显示广告的原理太过复杂,我们很难搞清背后的原因——到底是广告商更喜欢给男性展示这些广告呢,还是相关算法产生的无意的结果。


无论如何,算法的这种缺陷是难以察觉的:一位女性怎么会去申请她从来没看到过的招聘广告呢?黑人社区又如何会知道自己因为软件而被警察过度监控了呢?


我们要谨慎的设计和训练机器学习系统,否则未来的人工智能就会被植入根深蒂固的偏见。




正如它之前的所有技术一样,人工智能也会反映出它创造者的价值观。我们要重视包容性,从设计系统的人,到公司董事以及他们的伦理观念都要考虑到。不然很可能我们构造出的机器智能就会成为一个狭隘的社会缩影,被那些特权观念和陈腐的偏见所主导。


如今,如果我们能看到人工智能系统带有的歧视色彩是多么浓厚,也许就能设计出更加公平的系统。但这需要科技界能承担起更多社会责任。政府和公众也需要尽到自己的责任:秉持公平的观念并通过正当程序对前沿技术进行投资。


机器学习会带来意想不到的新视角和新形式的便利,我们必须增强那些硅谷精英圈之外的弱势群体的影响力。


目前对超强人工智能的潜在威胁争论最激烈的是那些富裕的白人,也许对他们来说,最大的威胁是人工智能会超越他们称为顶级掠食者。但对于那些本来就被边缘化和歧视的人群来说,威胁就在眼前。



长按二维码,勾搭头条君

你关心的,才是头条丨今日头条

收藏 已赞