随着我们达到极限,越来越清楚的是,深度学习(AI技术的特定子集)不会神奇地导致人类水平的人工智能。

深度学习可能仍会走得更远,但我同意这里的普遍观点。

人工智能-紫沐兜

如果我们希望机器人能够像我们一样思考,我们就必须停止给他们所有答案。好奇心和探索是深度学习根本无法提供的人类智力的两个关键组成部分。 

在《 Quanta》杂志的最近一篇文章中,作家Matthew Hutson描述了计算机科学家Kenneth Stanley的工作,他目前在Uber的AI实验室工作。斯坦利在“神经进化”领域的开拓性工作为新的人工智能范式铺平了道路,该范式避开了传统的基于目标的训练模型,而转向了仅具有探索和创造力的AI模型。

哈特森写道:

生物进化也是产生人类智能的唯一系统,这是许多AI研究人员的终极梦想。由于生物学的历史记录,Stanley和其他人开始相信,如果我们希望使用能够尽可能轻松地(甚至更好)导航物理和社交世界的算法!-我们需要模仿自然的策略。

他们认为,与其硬编码推理规则,要么让计算机学会在特定的性能指标上获得高分,我们必须让大量的解决方案蓬勃发展。让他们优先考虑新颖性或趣味性,而不是走路或说话的能力。他们可能会发现一条间接的道路,一系列的垫脚石,并且比起直接寻求这些技能的人来说,走路和说话要好得多。

标准深度学习模型使用黑匣子(一组权重和参数,最终使它们变得过于复杂,以至于开发人员无法单独描述)来“精简”机器学习算法并对其进行调整,直到它们输出正确的数据为止。这不是智慧,是指望。 

如果AI能够发展自己的解决方案并将这些参数与深度学习结合起来,那么它将更接近于模仿人类层面的问题解决方案。至少,斯坦利(Stanley)认为。

他的研究涉及构建可与深度学习系统协同工作的进化算法。从本质上讲,他没有教AI解决问题,而是开发了一些曲折的算法,以了解它们的功能。这些系统无法解决像正常AI范例这样的问题。他们只是一直走到发生某件事为止。值得注意的是,与传统的深度学习模型相比,他们无需解决任何问题,仍然可以有效地解决许多问题。

Hutson在Quanta中的文章中提供了更多信息:

在一项测试中,他们[Stanley和研究员Joel Lehman]将虚拟轮式机器人放在迷宫中,并改进了控制它们的算法,希望能找到通往出口的路径。他们从头开始进行了40次进化。在一个比较程序中,选择了机器人接近乌鸦(如乌鸦飞过)离开出口的程序,该程序在40次进化中只有3次获胜。完全忽略了每个漫游器离出口有多近的新颖性搜索成功了39次。之所以起作用,是因为机器人设法避免了死胡同。

深度学习AI遇到障碍时不知道该怎么办。一旦机器卡住,就必须重新开始-这就是为什么要花费数百万个训练周期来“教” AI如何成功完成任务的原因。借助斯坦利基于进化算法的混合模型,人工智能不再试图找到出口,它基本上只是在做事情,然后试图找到更多要做的事情。机器的“好奇心”几乎每次都迫使它穿过整个迷宫,因为它倾向于探索。

进化算法并不是什么新鲜事物,但是围绕它们的研究脉络已基本转移到一边,而倾向于在标准深度学习技术中获得更为直接的发展机会,这种发展机会推动了B2B和B2C的销售。而且由于价格昂贵,它们还没有得到充分开发。与运行进化算法相比,训练狭power的AI所需的功率要少得多。但是,回报可能是巨大的。

这里的主要想法是通过无限制的探索让AI进化自己的算法,从而对人为事件进行后门情报处理。斯坦利和其他人认为,AGI可能表现为机器好奇心的副产品,就像人类意识是生物进化的结果一样。

顶: 0 踩: 0