当松鼠面对一堆核桃时,它会选择上学吗?当然不会——它依靠试错、感知与环境的互动来学习生存。这正是人工智能专家理查德·萨顿所强调的:真正智能的诞生,不应依赖知识的灌输,而应源于感知、行动与奖励的循环。他认为,当前的大型语言模型虽能流畅生成文本,却仅是“高明的模仿者”,缺乏对物理世界因果关系的真实理解,无法真正推理、规划或主动利用反馈改进自身。更值得深思的是,萨顿提出的“AI继承理论”指出,AI的发展如同一种新的生命形式,其崛起不可逆转,将重塑社会结构、伦理与法律制度。面对这一必然趋势,人类亟需思考:我们是成为AI的管理者,还是被其超越?关键在于能否建立价值对齐、确保技术公平透明,并主动引导AI服务于人类共同福祉。未来智能的走向,取决于我们今日的选择。
大家好,我是主持人凌薇。欢迎收听这期播客。今天我们邀请到了陈敏老师,他是ai领域的专家。陈敏老师您先跟大家打个招呼,大家好,我是陈明。很高兴来聊聊这个话题。好,那咱们今天要聊一聊最近理查德萨顿提出的观点,他认为大型语言模型是通向通用人工智能的一条死路。这个话题最近炒的特别热,所以咱们今天就来好好聊一聊,我们不仅会聊到为什么萨顿会这么说,我们也会聊到他说的人工智能的继承理论到底是什么意思最后我们还会聊一聊,面对这样的变革我们应该怎么去思考。听起来很精彩。那我们就直接开始,咱们先来聊。第一个话题就是,萨顿为什么他会觉得大型语言模型是走错了方向,他其实在访谈里面讲了很多核心的问题,其实就一个大型语言模型,它到底缺了什么才能导致他觉得好像走了一条死路,其实他举的例子就特别明了,就是他说,你给松鼠一堆核桃,它会不会上学?当然不会,松鼠就是靠试错,靠自己跟环境的互动,来学会怎么苍食物。怎么防天敌?那同理。他觉得,如果ai要是想要真正的智能,它也得是基于这种感知行东和奖励的这样的一个循环。然后不断地去从经验里面学习,而不是说我们去给他灌输一堆知识。那你觉得萨顿为什么他会说大型语言模型,他没有办法真正地理解世界,因为他觉得这些模型,它其实只是在学习文本的统计规律,他没有真正的去建立关于这个物理世界的因果关系的模型所以他觉得他没有办法去做真正的推理,没有办法去做真正的规划,他只不过是一个非常高笑的模仿者。那你觉得就是按照萨顿的观点,他认为大型语言模型会在哪些具体的能力上卡住,他认为语言模型它虽然可以生成很流畅的文本,但是他没有办法真正的去理解语义,就是他不知道自己说什么,对,所以他很容易产生这种幻觉,或者说输出一些不负责任的信息。对,而且他没有办法主动的去利用反馈来改进自己的理解。对,所以他的知识是静态的,他没有办法在实际操作当中去影用他的这种语言能力。对,所以他的互动和他的这种应用是非常有限的。好,关于萨顿为什么认为lm走错的方向,咱们就先聊到这儿休息一下马上回来。那我们接下来要聊的就是这个所谓的ai继承理论,那这个理论到底是怎么回事?它的核心观点是什么?这个就是理查德萨顿他提出的其实它是从四个方面来论述的。第一个就是没有统一的人类治理全球范围内没有一个人或者说一个组织可以说了算。对,所以每个国家每个公司都在自己搞自己的ai发展路径,那这个东西其实就很难去控制它的一个统一的方向,所以说谁也管不着谁。对没错,然后再加上智能本身的定义和获得它的方式也会不断的被重新定义,那之前我们以为,说强人工智能是很难实现的,但是现在其实我们已经实现了一种超越人类水平的这种智能出现,那未来它只会越来越普及,越来越强大。那这些东西都说明了一个事情,就是ai的继承是不可避免的。你觉得萨顿在文中提出的这个ai继承理论,它的现实意义是什么?我觉得它其实是在提醒大家,ai的发展是一个非常去中心化的一个自组织的过程,那它最终会自然的形成一种等级和分工。那这种等级和分工就会让ai慢慢的获得一种自主的权利和资源那这个东西其实是在告诉我们,ai的崛起是一个必然的历史趋势,我们只能去选择怎么去应对它而不是说能够真正的去阻挡他。你觉得萨顿在文中把ai的发展比作一种继承他想要传达的核心思想是什么?其实它是在强调ai,它是一种新的生命形式,或者说一种新的智能形态,那它会有自己独特的净化方式,独特的结构那这个东西其实是在挑战我们对于人类的中心主义的这种观念,所以就是说我们其实在见证一种新的生命形式的诞生没错,是的是的,而且它其实也在提醒大家,这种新的智能,它的发展是不可逆转的,而且它会不断的加速,那我们人类可能只能去选择是成为他的管理者还是说被他超越被他淘汰这其实是一个非常深刻的关羽,我们当前技术变革的一个哲学上的一个警示。聊这么久的ai继承理论,感觉信息量不小,咱都歇会儿喝口水,待会儿继续。然后,咱们来进入第三个部分,就是关于这个变革的思考。那面对这样一个不可避免的ai继承的这样的一个未来,我们到底应该怎么去思考它我觉得,其实ai的继承它到底是不是一个好事儿,其实很大程度上取决于我们怎么去选择解读它你可以把它当成是一个人类的一个全新的阶段,就像我们之前说的,救赎字,生命一个诞生,那这样的话,你可能会更情项羽,去制定一些规则,来保证他的健康的发展,而不是说去恐惧它,或者说去试图去阻挡所以就是说,关键还是在于人类怎么去调整自己的心态和制度,没错,对,我们需要去重新思考我们的社会结构,我们的伦理观念我们的法律制度。对,然后,我们也要去主动的去引导ai的发展,去让他们能够造福人类,而不是说去被东的去接受。他们带来的所有的变化对,这样的话,我们才能够真正的去把握未来。你觉得我们在面对ai继承的这样的一个时代,我们最应该关心的问题是什么?我觉得其实最核心的就是我们要去思考,如何让ai真正的服务于人类的需求和全球德服勒对,就我们要去建立一些真正的价值,对齐让这些ai系统能够理解和遵循我们的共同的道德准则。然后我们也要去关注技术设计当中的公平性,透明度包括它的安全性和可控性所以就是说伦理和治理变得比以前重要太多了没错,对,因为ai系统现在的影响力已经远远超过了单纯的技术领域了,这是在重塑我们的经济,我们的社会,甚至我们的文化所以如果说我们没有及时的去制定一些规则,或者说一些价值取向的话,那ai可能会带来一些风险,比如说加剧社会的分化,或者说威胁到人类的自主权等对,我们要去主动的去塑造它的发展方向,让ai真正的成为我们的一个得力的助手,而不是说让我们陷入一些伦理的困镜当中。对,所以这就是为什么我说伦理和治理是核心。那你觉得面对这样的一个ai驱动的未来人类社会最需要做出哪些根本性的调整?我觉得,首先,我们要承认ai是人类的一个新的伙伴,而不是说一个单纯的工具。那这个就要丘我们的法律,和我们的社会规范要去适应这种新的现实对比如说,我们要重新思考什么是财产,什么是责任,什么是身份对,所以就是说人类的很多基本概念都要被重新审视。没错,然后我们还需要去发展一些新的教育体系,澜培养人们语言协作能力,包括我们的政治体制也要去适应这种全球的技术的这种。变化包括我们的价值体系,也要去包容这种多样性和进化。只有这样的话,我们才能够真正的去把握ai带来的机遇。同时去规避一些风险。对,今天我们聊了很多,关于这个ai的继承,包括大型语言模型的局限。其实归根结底,我们是在思考一个事情,就是未来智能的发展到底要走向何方?是继续的扩展我们的能力,还是说我们要彻底的重新思考什么是智能好了。那么这期节目咱们就到这里了,感谢大家的收听,咱们下期再见。白白