当你用成百万、上亿张图片来训练这个网络后,你随便拿一张照片来,它通常就能准确地告诉你,这是否是一张有猫的照片。令人惊异之处还不止于此,这个网络在反复的学习过程中,自动形成分层功能,例如这一层识别边界,另一层识别角落,再一层识别形状或者颜色......这是在训练过程中网络“自发”形成的层级,而没有预编程的干预。
这使它带上了真正的“智能”色彩,也正是这一丝智能色彩,惊艳了众人。
一时间,“深度学习”在人们印象中已经变得无所不能:从自驾车到识别癌症到自动翻译。与此同时,它有时也在犯把一张拿着牙刷的小宝宝的照片标注为“拿着棒球棍的小男孩”这样的错误。这时你开始怀疑,神经网真的对世界有理解吗?
至此,你大概已经看明白,神经网说到底,是一个模糊模式识别机。以模糊模式识别之有用,大可以将其应用到所有的软件当中。但它所代表的终究只是十分有限的智能,要糊弄它并不难,深度学习的局限一天比一天明显地在显现。它浅层次模仿人的大脑,因此所获得的智能也相应地浅层。说到底,反向传播的发明并非通过对人类大脑的真正探寻,它是一个通过试错机制创建出的模型。截至目前为止的AI重要成果并没有真正涉及到神经科学,我们所获得的,更应该说是在数学和工程学,甚至铁匠铺式的修修补补,这些合力下的技术改进。看上去,各路AI“大神”对基于深度学习的智能系统的修补技术越来越熟练,但距离真正的智能有多远这个问题,局外人似乎反而想得更多。
我们是不是已经把“反向传播”那一刷子用到尽头了?如果真是这样,人工智能的进步有可能将进入一个平台期。
MIT认知计算科学教授乔希·泰能博(Josh Tenenbaum)必须一提,阿尔法狗团队的好些重要人物在博士期间即师从于他,其学术论文被引用次数高达3万5千次,堪称论文帝。他曾经在文章中说,自己在研究中也到反向传播中去寻找灵感。过去几十年来,反向传播一直停留在很酷的数学研究领域(多维向量空间),而在实际工程上建树平平。后来,计算机速度上去了,各种硬件条件更加成熟了,反向传播一下子就发威显灵了。也许,通往下一个破冰的研究,比如泰能博和他的学生正在从事的认知计算研究,也会需要这么一个漫长的等待过程。
助力AI走到今天的反向传播,究其根本,它只是受生物学启发的计算;而真正的AI突破,则需要在计算机科学和生物学之间架起一座真正的桥梁。辛顿又走出了实验性的一步,他宣布了一个被称作“胶囊”(capsules)的东西,不知道这个胶囊会不会又是下一个三十年的“反向传播”?