今年开始了,人工智能还要解决哪些难题?

2018年01月23日 人人都是产品经理


译者:肥寒

全文共 2558 字,阅读需要 6 分钟


———— / BEGIN / ————


2017年关于杀手级机器人的讨论非常热烈,人工智能也取得了重大的突破。


比如,一台名为Libratus的机器人力胜多名扑克高手。在现实世界中,机器学习被用于改进农业,拓宽医疗服务覆盖面。


但是如果你使用过Siri或Alexa,你会发现人工智能尽管非常热门,但是仍然有很多事情无法处理或者理解。


一、理解语意


机器对于文本和语言的理解能力比起过去有飞速发展,Facebook可以为视力不好的人士描述图片,谷歌可以根据邮件内容提供回复建议,然而软件依然理解不了我们的话语和思路。


“我们可以学习概念,并通过不同的方式把这些概念结合起来,应用到新的情境之中,”波特兰州立大学教授Melanie Mitchell说。“但这些AI和机器学习系统就不会。”


Mitchell认为当前软件还受限于数学家吉安-卡洛·罗塔所说的“思想的屏障”,一些领先的AI团队正在尝试克服这一障碍。


其中一项尝试是:让机器人和人类一样现实世界和常识有基本的了解。


Facebook研究人员正试图教软件理解现实,比如通过看视频。也有团队侧重于让软件模仿人类对世界的理解来完成某些行为。


谷歌就在打造学习比喻的软件,Mitchel就体验过一些系统,利用类比的方法和一堆有关世界的概念来解读照片中的情况。


二、阻碍机器人革命的现实差距


机器人硬件发展越来越好了,你可以花500刀买到手掌大小、配备高清摄像头的无人机,双脚行走,搬运盒子的机器人也在不断被改进。


但是,为什么普通人周围没有被各式各样的机械助手包围呢?——目前的机器人大脑的技术发展远远落后于肢体技术。


要让机器人完成特定的任务,就需要针对专门的任务进行编程;他们通过不断试错来学习抓住物体,但是这个进程比较缓慢。


一个比较可行的方法是:让机器人在虚拟世界中进行训练,再将训练所获得的知识数据下载到实体机器人的身体中。


但是现实总是骨感的,虚拟环境中机器人的训练成果不一定在现实世界中完全有效。


可喜的是:这个差距在缩小。


去年10月,谷歌发布了一批喜人的实验室结果,模拟与现实机械手臂学会了捡起多种物体,包括胶带分配器、玩具和梳子。


对致力于自动驾驶汽车的人而言,进一步的进展非常重要。


在自动驾驶技术的竞赛中,企业纷纷在模拟街道上部署虚拟汽车,从而减少在实地交通和道路环境中测试所需的时间和资金。


自动驾驶初创企业Aurora公司CEOChris Urmson说,其团队的优先事项之一就是让虚拟测试更加适用于现实车辆。“未来一年左右,如果能利用虚拟测试加速机器学习,那就太好了,”厄姆森说。他之前领导过谷歌母公司Alphabet的自动驾驶汽车项目。


三、防范AI攻击


电网、安防摄像头和手机的软件中有很多安全漏洞,无人汽车和家用机器人也无法幸免,甚至可能会更糟:机器学习软件的复杂性为攻击提供了新的渠道。


今年有研究显示,你可以在机器学习系统中隐藏一个暗门,使它一收到特定信号,便切换成邪恶模式。


纽约大学设计了一个正常运行的路边系统,这个系统一旦看到黄色的便签纸就会出现问题。


比如布鲁克林一块停车路标上贴了一张便签纸,系统将其识别为限速标志。


类似这样的情况,也许会给自动驾驶汽车构成麻烦。


四、不止是棋盘游戏


2017,击败了很多世界冠军的AlphaGo继续进展神速。5月,AlphaGo的增强版在中国击败了多名世界级围棋冠军。


其创造者,Alphabet旗下研究部门DeepMind后来又构建了一个版本,名为AlphaGo Zero,在不学习人类棋步的情况下,自学学会了围棋。12月,又再度升级,可以学会国际象棋和日本将棋(不过不能同时学)。


上述的成果固然让人们欣慰,但同时也说明目前的AI软件还是有局限性——国际象棋、围棋、将棋虽然很复杂,但规则却相对简单,每走一步双方都能看到。快速穷举未来“情况”这事,计算机是最在行的,但在现实生活中的情况和问题无法如此结构分明。


正因如此,DeepMind和Facebook都在2017年开始研究AI在多玩家游戏《星际争霸》的可能性,目前最好的机器人(出自业余人士之手)也无法击败一般玩家。


今年早些时候,DeepMind的研究员 Oriol Vinyals接受采访时说,他们的软件现在还不具备规划与记忆能力,无法一边组建并指挥军队的同时,预测对手的下一步行为和应对。


这些技能也可以让软件更好地协助现实世界的任务,比如办公室工作或者真实的军事行动。2018年,《星际争霸》或类似游戏的重大进展也许预示着AI将会有强大的新用途。


五、让AI区分是非


即便上述领域没有新的进展,现有AI技术普及之后,经济与社会的各方面也会发生重大的变化。


当政府和企业忙于普及AI的同时,也仍有人对AI和机器学习潜在危害的十分担心。


在近期的NIPS(神经信息处理系统进展大会)机器学习会议上,其中一个主题如何让AI技术保持在安全且合乎道德的范围之内。


研究人员发现:由于我们的世界跟完美相距甚远,机器学习系统在接受已有数据的训练时,会学到不道德或不可取的行为,比如以刻板印象对待男女两性。


有人正在研发特定手段,用于审核AI系统的内部运作,确保它们在金融与医疗领域运作时,能够作出公正的决策。


2018年,更多的科技公司会关注如何让AI正确为人类服务。谷歌、Facebook、微软等已经在探讨这个问题,并且是非营利机构AI合作组织(Partnership on AI)的成员。该机构将研究并试图规范AI对社会的潜在影响。


也有其他的第三方部门也开始施压。一个名为人工智能伦理与治理基金(Ethics and Governance ofArtificial Intelligence Fund)的慈善项目正在支持MIT、哈佛等机构的AI和公共利益研究。纽约大学新成立的AI Now也肩负起了类似的使命。


在最近的一项报告中,该研究机构向政府发出呼吁,要求他们承诺,在刑事司法或福利等领域,不再使用不受公开审查的“黑箱”算法。


———— / END / ————


原文地址:https://www.wired.com/story/an-old-technique-could-put-artificial-intelligence-in-your-hearing-aid/

译者:肥寒,微信公众号:chanpingdog,人人都是产品经理专栏作家。九年产品经理。做过数字阅读,电商,社区,目前致力于在线教育。

本文由 @肥寒 翻译发布于人人都是产品经理。未经许可,禁止转载


点击“阅读原文”下载APP

收藏 已赞