高级产品经理对人工智能产品的思考

下面是我对2018年深度学习的10个预测:

1、大部分深度学习领域的硬件创业公司都将失败

很多深度学习硬件创业公司将在2018年开始交付他们的硅产品(深度学习硬件的核心部件是由晶体硅构成)。其中的大部分公司都将破产,因为他们忘了交付好的软件来支持他们的新解决方案。这些创业公司的DNA是硬件。不幸的是,在深度学习领域,软件与硬件同样重要。这些初创公司大多不懂软件,也不懂得开发软件的成本。这些公司可能会交付硅产品,但是没有任何东西能在这些产品上运行。

研究人员将开始使用这些张量计算核心,不仅用于推理,还会用于加速训练。英特尔的解决方案将继续被推迟,很可能会让人失望。记录显示,英特尔无法在2017年年中实现这一计划,而且所有人都不知道该公司何时会发布这一消息。Google将继续用机器学习芯片TPU来给世界带来惊喜。也许GOogle通过将其IP授权给其他半导体厂商来进入硬件行业。如果它能继续成为除英伟达以外唯一的真正玩家,它这么做是有意义的。

2、元学习将会成为新的SGD

2017年,在元学习领域出现了很多有分量的研究成果。随着研究群体对元学习有更好的理解,旧的随机梯度下降法(SGD)将会被搁置,取而代之的是一种结合了开发和探索性的搜索方法的更有效的方法。无监督学习的进展将会出现递增,但它主要是由元学习算法驱动的。

3、生成模型驱动一种新的建模方式

关于生成模型的科学研究将会越来越多。目前,大多数研究都是在生成图像和语音领域开展的。但是,我们会发现这些方法将被集成到用于建模复杂系统的工具中,其中就包括深度学习在经济建模里的应用。

4、自我博弈学习是自动化的知识创造

AlphaGo Zero和AlphaZero是从零开始通过自我博弈学习是一次巨大的飞跃。在我看来,它的影响与深度学习的出现带来的影响是同等重要的。深度学习发现了通用的函数逼近器,强化式自我博弈学习发现了通用的知识创造方式。我期待看到更多与自我博弈学习相关的进展。

5、直觉机器将缩小语义鸿鸿沟

这是我做的一个最雄心勃勃的预测。我们将会缩小直觉机器和理性机器之间的语义鸿沟。双重过程理论(Dual process theory)(两种认知机器的概念,一种是无模型的,另一种是基于模型的)将会成为关于我们应该如何构建新的人工智能的更普遍的概念。在2018年,人工直觉的概念将不再是一个边缘概念,而是一个被普遍接受的概念。

6、解释能力是无法实现的——我们必须伪造它

解释能力存在两个问题。其中比较常见的一个问题是,这些解释有太多的规则,人们通常无法完全掌握。第二个问题就不那么常见了,那就是机器会创造出一些完全陌生的、无法解释的概念。我们已经在AlphaGo Zero和Alpha Zero的策略中看到了这一点。人类会发现它们下棋时走的有些棋是违反常规的,但可能仅仅是因为人类没有能力去理解它走这一步棋背后的逻辑。

在我看来,这是一个无法解决的问题。取而代之的是,机器将变得非常善于“伪造解释”。简而言之,可解释机器的目的是理解让人类感到舒服的解释或者在人类直觉层面上能够理解的解释。然而,在大多数情况下,人类无法获得完整的解释。

我们需要通过创造虚假解释来在深度学习中取得进展。

7、深度学习领域的研究成果会成倍增加

2017年,人们已经很难掌握全部的深度学习研究成果了。在2018年ICLR 大会上提交的论文数量约为4000份。为了赶上会议时间,一位研究人员每天必须要阅读10篇论文。

这个领域的问题还在进一步恶化,因为理论框架都在不断变化中。为了在理论领域取得进展,我们需要寻找能够让我们拥有更好的洞察力的更先进的数学运算方法。这将是一个艰难的过程,因为大多数深度学习领域的研究人员都没有相应的数学背景来理解这些系统的复杂性。深度学习需要来自复杂性理论的研究人员,但这类研究人员是少之又少的。

由于研究论文太多和理论的欠缺,我们现在处在一种非常尴尬的境地。同样缺失的是通用人工智能(artificial general intelligence)的一般路线图。因为理论很薄弱,我们能做的最好的事情就是创建一个与人类认知相关的里程碑路线图。我们只有一个来源于认知心理学的推测理论的框架。这是一个糟糕的情况,因为来自这些领域的经验证据是参差不齐的。

在2018年,深度学习方面的研究论文可能会增加三到四倍。

8、工业化是通过教学环境实现的

通往可预测性和可控制性更强的的深度学习系统的发展之路是通过具体的教学环境的发展来实现的。如果你想找到最原始的教学方法,你只需要看看深度学习网络是如何训练的就行。我们将在这个领域看到更多的进展。

预计会有更多的公司披露他们的内部基础设施,解释他们是如何大规模地部署深度学习的。

9、会话认知的出现

我们衡量通用人工智能(AGI)进展的方式已经过时了。需要有一种新的模式来解决现实世界的动态(即非平稳)复杂性。我们在2018年将能看到更多关于这个全新领域的报道。

10、我们需要人工智能应用于道德领域

对人工智能更多地应用于道德领域的需求将会增加。现在,人们越来越意识到自动化失控造成的意想不到后果所带来的灾难性影响。我们今天在Facebook、Twitter、谷歌、亚马逊等网站上发现的简单的自动化可能会对社会产生副作用。

我们需要理解部署能够预测人类行为的机器的伦理道德。面部识别是我们拥有的最危险的能力之一。作为一个社会,我们需要要求自己只为了社会的整体利益而使用人工智能,而不是将人工智能作为增加不平等的武器。

在接下来的一年里,我们将会看到更多关于道德的讨论。然而,不要期望会有新的规定出台。在理解人工智能对社会的影响方面,政策制定者往往是落后好几年的。我不期望他们停止玩弄政治、去开始解决真正的社会问题。美国人民已经成为众多安全漏洞的受害者,但我们没有看到政府通过新的立法或采取什么行动来解决这个严重的问题。所以我们自己也不要盲目乐观期待。

2017年关于杀手级机器人的讨论非常热烈,人工智能也取得了重大的突破。比如,一台名为Libratus的机器人力胜多名扑克高手。在现实世界中,机器学习被用于改进农业,拓宽医疗服务覆盖面。

但是如果你使用过Siri或Alexa,你会发现人工智能尽管非常热门,但是仍然有很多事情无法处理或者理解。

理解语意

机器对于文本和语言的理解能力比起过去有飞速发展,Facebook可以为视力不好的人士描述图片,谷歌可以根据邮件内容提供回复建议。然而软件依然理解不了我们的话语和思路。“我们可以学习概念,并通过不同的方式把这些概念结合起来,应用到新的情境之中,”波特兰州立大学教授Melanie Mitchell说。“但这些AI和机器学习系统就不会。”

Mitchell认为当前软件还受限于数学家吉安-卡洛·罗塔所说的“思想的屏障”,一些领先的AI团队正在尝试克服这一障碍。

其中一项尝试是让机器人和人类一样现实世界和常识有基本的了解。Facebook研究人员正试图教软件理解现实,比如通过看视频。也有团队侧重于让软件模仿人类对世界的理解来完成某些行为。谷歌就在打造学习比喻的软件。Mitchel就体验过一些系统,利用类比的方法和一堆有关世界的概念来解读照片中的情况。

阻碍机器人革命的现实差距

机器人硬件发展越来越好了,你可以花500刀买到手掌大小、配备高清摄像头的无人机。双脚行走,搬运盒子的机器人也在不断被改进。但是为什么普通人周围没有被各式各样的机械助手包围呢?——目前的机器人大脑的技术发展远远落后于肢体技术。

要让机器人完成特定的任务,就需要针对专门的任务进行编程。他们通过不断试错来学习抓住物体,但是这个进程比较缓慢。一个比较可行的方法是让机器人在虚拟世界中进行训练,再将训练所获得的知识数据下载到实体机器人的身体中。但是现实总是骨感的,虚拟环境中机器人的训练成果不一定在现实世界中完全有效。

可喜的是这个差距在缩小。去年10月,谷歌发布了一批喜人的实验室结果,模拟与现实机械手臂学会了捡起多种物体,包括胶带分配器、玩具和梳子。

对致力于自动驾驶汽车的人而言,进一步的进展非常重要。在自动驾驶技术的竞赛中,企业纷纷在模拟街道上部署虚拟汽车,从而减少在实地交通和道路环境中测试所需的时间和资金。自动驾驶初创企业Aurora公司CEOChris Urmson说,其团队的优先事项之一就是让虚拟测试更加适用于现实车辆。“未来一年左右,如果能利用虚拟测试加速机器学习,那就太好了,”厄姆森说。他之前领导过谷歌母公司Alphabet的自动驾驶汽车项目。

防范AI攻击

电网、安防摄像头和手机的软件中有很多安全漏洞。无人汽车和家用机器人也无法幸免。甚至可能会更糟:机器学习软件的复杂性为攻击提供了新的渠道。

今年有研究显示,你可以在机器学习系统中隐藏一个暗门,使它一收到特定信号,便切换成邪恶模式。纽约大学设计了一个正常运行的路边系统,这个系统一旦看到黄色的便签纸就会出现问题。比如布鲁克林一块停车路标上贴了一张便签纸,系统将其识别为限速标志。类似这样的情况也许会给自动驾驶汽车构成麻烦。

不止是棋盘游戏

2017,击败了很多世界冠军的AlphaGo继续进展神速。5月,AlphaGo的增强版在中国击败了多名世界级围棋冠军。其创造者,Alphabet旗下研究部门DeepMind后来又构建了一个版本,名为AlphaGo Zero,在不学习人类棋步的情况下,自学学会了围棋。12月,又再度升级,可以学会国际象棋和日本将棋(不过不能同时学)。

上述的成果固然让人们欣慰,但同时也说明目前的AI软件还是有局限性。国际象棋、围棋、将棋虽然很复杂,但规则却相对简单,每走一步双方都能看到。快速穷举未来“情况”这事,计算机是最在行的,但在现实生活中的情况和问题无法如此结构分明

正因如此,DeepMind和Facebook都在2017年开始研究AI在多玩家游戏《星际争霸》的可能性。目前最好的机器人(出自业余人士之手)也无法击败一般玩家。今年早些时候,DeepMind的研究员 Oriol Vinyals接受采访时说,他们的软件现在还不具备规划与记忆能力,无法一边组建并指挥军队的同时,预测对手的下一步行为和应对。这些技能也可以让软件更好地协助现实世界的任务,比如办公室工作或者真实的军事行动。2018年,《星际争霸》或类似游戏的重大进展也许预示着AI将会有强大的新用途。

让AI区分是非

即便上述领域没有新的进展,现有AI技术普及之后,经济与社会的各方面也会发生重大的变化。当政府和企业忙于普及AI的同时,也仍有人对AI和机器学习潜在危害的十分担心。

在近期的NIPS(神经信息处理系统进展大会)机器学习会议上,其中一个主题如何让AI技术保持在安全且合乎道德的范围之内。研究人员发现,由于我们的世界跟完美相距甚远,机器学习系统在接受已有数据的训练时,会学到不道德或不可取的行为,比如以刻板印象对待男女两性。有人正在研发特定手段,用于审核AI系统的内部运作,确保它们在金融与医疗领域运作时,能够作出公正的决策。

2018年,更多的科技公司会关注如何让AI正确为人类服务。谷歌、Facebook、微软等已经在探讨这个问题,并且是非营利机构AI合作组织(Partnership on AI)的成员。该机构将研究并试图规范AI对社会的潜在影响。也有其他的第三方部门也开始施压。一个名为人工智能伦理与治理基金(Ethics and Governance ofArtificial Intelligence Fund)的慈善项目正在支持MIT、哈佛等机构的AI和公共利益研究。纽约大学新成立的AI Now也肩负起了类似的使命。在最近的一项报告中,该研究机构向政府发出呼吁,要求他们承诺,在刑事司法或福利等领域,不再使用不受公开审查的“黑箱”算法。

文章由PM28网编辑,作者:海阁,如若转载,请注明出处:http://www.pm28.com/1067.html欢迎投稿

联系我们

在线咨询:点击这里给我发消息

邮件:403567334@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息