让AI达到人类水平?首先需要翻越这“五座大山”

  • 发布日期:2018-11-01

人工智能已经可以做很多人类无法做到的事情,但我们距离打造“像人类一样”的人工智能还有多远?在我们达成目标之前,我们需要解决哪些关键问题?

为了回答这个问题,我将提出,为了让机器变得和人类一样聪明,必须克服五个里程碑式的难题:普遍性、转移学习、自主学习、常识和自我意识。 让我们依次来看看看看我们今天人工智能的发展水平。

普遍性:这意味着我们开发出一种方法,或者一种可以应用于任何其他独立于领域问题的系统架构。我认为这个问题在很大程度上得到了解决。人工智能的概率方法,比如深度倾斜网络(比如专家系统),已经证明了其通用性。我们可以使用同样的深度学习网络和算法来解决几乎所有问题——这是一个很好的机器学习的范例。

自主学习:这就是Deep Mind的“AlphaGo Zero”所取得的成就。通过对第一个AlphaGo所使用的原始强化学习方法的调整和简化,他们演示了一个给定目标的神经网络(如“赢”)可以自己学习,并为实现这一目标而发明策略。这是一个重大的突破,它让我们离人工智能更近了一步。

转移学习:这意味着一个系统可以使用或抽象地利用它通过解决特定问题积累的知识,并将这些知识应用于解决不同的问题。这是我们人类的天性,我们会在问题中“看到固定的模式”和“问题之间的相似性”,我们运用积累的“经验”来解决它们。在人工智能领域,我们还没有实现这一目标。尽管在机器中,似乎至少有一条实现转移学习的有希望的途径,方法是将概率和非概率(“象征性”)方法结合起来。例如,假设一个系统能够检测出它的神经网络在解决某个特定问题时所采取的步骤,并将它们转换为一种启发式算法,然后对这种特定领域的启发式算法进行归纳,并用它来驱动神经网络去解决另一个问题。

常识:这是一个非常难的问题。举个例子,“迈克尔·菲尔普斯在北京奥运会上获得了400米蝶泳金牌”。当你读到这句话的时候,你会立刻、隐隐地想到一长串的事情;例如,菲尔普斯在获得奖章时身上是湿了的,他必须在进入游泳池之前把袜子脱掉等等。这种逻辑假设与原始陈述的关联在计算机中是极其难以编码的。我们距离解决常识问题还有很长的路要走。但是,一个好的开始就是研究神经科学能教给我们怎样形成、保留和使用记忆的方式。人类记忆的功能或许是在机器中开发常识的关键。

自我意识:人类的自我“意识”仍然是神秘的,尽管神经系统科学家已经取得了一些突破性的进展,当我们意识到一些事情的时候,比如当“我”或“自我”出现,产生主观体验时,我们的大脑会发生什么。对许多人来说,高层次的意识可能是人类在面对未来智能机器时保持某种优势的“最后堡垒”。然而,创造出模仿自我意识的机器并非不可能。我之所以说“模仿”,是因为,除非我们找到一种客观的方法来衡量人类的意识,否则我们将永远无法断定一台机器是否“真的”有意识。那些让我们相信他们有自我或个性的机器应该相对容易开发,但他们是否会真正地拥有自我意识,我们只能知道我们是否能解决了“意识的难题”。