当前神经网络的局限性:无法预测,无法解释理由,以及暂时的不稳定性,因此我们需要一种新的神经网络。神经网络胶囊(Neural Network Capsules)就是解决当前神经网络局限性的一种方法,但我们认为它必须有些额外的特点:
1)视频帧操作:这很简单,因为我们需要做的就是让胶囊路由查看最近时间的多个数据点。这相当于在最近的重要数据点上建立起关联内存。请注意,这些不是最近帧的最新表达,而是它们最新的不同表达。可以通过仅保存与预定义值不同的表达来获得不同内容的不同表达。这个重要的细节只允许保存最近历史上的相关信息,而不是一系列无用的相关数据点。
2)预测神经网络能力:这已经是动态路由的一部分,它迫使各层预测下一层表达。这是一种非常强大的自我学习技巧,在我们看来,它胜过了我们在社区中发展的所有其他非监督表现学习。胶囊现在需要能够预测长期的时空关系,但目前还没有实现。
持续学习:这是很重要的,因为神经网络需要不断地学习新的数据点来维持生存。目前的神经网络不能学习新的数据,而每次都需要从头开始重新训练。神经网络需要能够自我评估接受重新训练的必要性,以及它们确实知道某些事情的事实。这也需要在现实生活和强化学习任务中表现出来,我们想让机器在不忘记旧任务的情况下完成新任务。
转移学习:或者称我们如何让这些算法通过观看视频自学,就像我们学习如何烹饪新的东西一样。这是一种能力,需要我们上面列出的所有因素,而且对于加强学习也很重要。现在你可以通过举例子的方式来训练你的机器去做你想让它做的事情,就像我们人类一样。
强化学习:这是深神经网络研究的“圣杯”,即教机器如何在真实的世界环境中学习!这需要自学、持续学习、预测能力,还有很多我们不知道的东西。在强化学习领域有很多东西需要了解,但对作者们来说,这只触及到问题的表面。
强化学习通常被称为“蛋糕上的樱桃”,意思是它只是塑料合成大脑上微不足道的训练。但是,我们如何才能得到一个“通用”大脑轻松地解决所有的问题呢?这是个“先有鸡还是先有蛋”的问题!今天,要想一个个地解决强化学习的问题,我们需要使用标准神经网络:一个深度的神经网络,它接收大量的数据输入,如视频或音频,并将其压缩成表示;一个序列学习神经网络,如RNN,以便了解任务。
这两个部分都是问题的明显解决方案,目前显然是错误的,但这是每个人都在使用的,因为它们是当前可用的构建块。这样的结果并不令人印象深刻:我们可以从头开始学习玩视频游戏,并且掌握像国际象棋和围棋这样完全可观察的游戏,但无需多言,与在复杂的世界中解决问题相比,这些都是微不足道的。想象下,AI可以比人类更好地玩转《Horizon Zero Dawn》,对此我拭目以待!
但这恰是我们想要看到的,即能像我们人类这样运作的机器。我们对强化学习的建议是,使用可以连续操作的预测神经网络和联想存储器来存储最近的经验。
不要更多的递归神经网络(RNN):因为它们在并行化方面表现特别糟糕,甚至在特殊的定制机器上也很慢,因为它们的内存带宽使用率很高,内存带宽存在限制。基于注意力的神经网络更高效,可更快速地进行训练和部署,并且在训练和部署方面的可伸缩性更少。在神经网络中,注意力有可能使许多架构发生真正的改变,但它并没有得到应有的认可。联想记忆和注意力的结合是下一波神经网络发展的核心。我们认识到,基于注意力的神经网络将逐渐取代基于RNN的语音识别,并在强化学习构架和通用人工智能中找到它们的方法。
分类神经网络中信息的定位:实际上这是一个已经解决的问题,将被嵌入到未来的神经网络架构中。