【小哈划重点:怎么具备观察和体验能力呢?那就需要机器算法不但要临摹人类的大脑,更需要临摹人类的身体,毕竟是人体在观察和体验这个世界,而大脑只不过是观察和体验结果的数据处理中枢。】
同意Yann LeCun的观点,原因在于,语言并不是人类理解世界的唯一途径,甚至肯定不是直接途径。
人类和动物理解世界的直接方式是观察和体验,而观察和体验并不直接转化为语言,但会沉淀为“世界知识”(World Knowledge)。
这些世界知识能够帮助人类和动物进行无限推理,但这些世界知识的作用发挥却不一定非得是以语言或者表达为语言的方式。
基于这一逻辑,当前语言大模型很难达到通用智能(AGI)的高度,且有可能因为要迁就语言训练而进行过量的数据标注,从而更容易失控甚至误导人类。
我认为,解决之道在于,一方面要建立起Yann LeCun所说的世界知识学习算法;另一方面,也是更重要的是,应该给予机器算法以语言数据之外的智能进路,也就是让机器算法具备人类和动物那样的观察和体验世界的能力。
怎么具备观察和体验能力呢?那就需要机器算法不但要临摹人类的大脑,更需要临摹人类的身体,毕竟是人体在观察和体验这个世界,而大脑只不过是观察和体验结果的数据处理中枢。
由此,两个方向的动态值得关注:一是机器仿生学领域的进展,类似于波士顿动力这样的致力于开发“身体机器”的公司,从身体入手可能更为直接,相比于智力相似性而言,身体相似性更能代表机器的“人味”程度。
二是李飞飞团队在推进研究的“具身智能”(Body Embedded)进路,这个方向的研究正在揭示智能对于身体的“嵌入逻辑”,也就是说,并不是所有的智能都存储在大脑这个容器里,毕竟大脑只是身体的一部分。很可能,智能在生物体上具备“全身嵌入性”,如果这个结论成立,那么当前那些只是从大脑逻辑入手的人工智能研究将会遇到根本性挑战。
融合来看,智能是全身性的,存于身、心两处,只不过在大脑区域智能的浓度更高(但不意味着智能程度更高,这一点要特别注意)。所以,想要破解智能的密码,就不能脱离身体本身,这样也就不会脱离世界了。
目测,世界模型+机器仿生+具身智能,三者结合就有可能将人工智能的“人工”二字去掉,生成真正意义上的智能(AGI)。
结论:一切都是机器……