耀世娱乐

你的位置:耀世娱乐 > 新闻动态 >

Redis之父深夜发言:AI到底是什么,你真的懂吗?

点击次数:138 新闻动态 发布日期:2026-01-31 05:08:14
1. AI不是在重复,而是在真正理解 Redis之父Salvatore Sanfilippo花了不少时间观察AI的发展轨迹,最近他把这些观察整理成了八条反思。其中最刺激的一个发现是:那个曾经被广泛认可的随机鹦鹉论调,其实早就过时了。 这个说

1. AI不是在重复,而是在真正理解

Redis之父Salvatore Sanfilippo花了不少时间观察AI的发展轨迹,最近他把这些观察整理成了八条反思。其中最刺激的一个发现是:那个曾经被广泛认可的"随机鹦鹉"论调,其实早就过时了。

这个说法曾经很流行。人们说AI就像一只鹦鹉,只会基于统计规律重复语言,并没有真正的理解。听起来言之凿凿。但随着研究深入,研究者们发现AI模型内部确实在形成对概念的表征。换句话说,AI不仅仅是在玩文字游戏,而是在建立某种关于世界的内部模型。

这改变了很多人的看法。不是所有的产出都等于鹦鹉学舌。模型在处理信息时,真的在做某种形式的理解。

2. 思维链成为了自主思考的桥梁

还有个技术细节值得注意。思维链(Chain of Thought)的应用变得越来越重要。这不是什么新概念,但它的意义在于给了模型一个机制去进行中间步骤的推理。

当你让AI先一步步想,再给出答案时,效果就变了。这种让模型"显示工作过程"的方法,实际上提升了它的推理能力。这不是技巧,是AI真正在做推理时必要的东西。程序员们开始普遍采用这种方法,结果是模型的表现明显更好。

这个发现反过来说明了什么。如果AI只是单纯的概率机器,为什么多一个思考步骤就能帮助它?答案隐含在问题本身里。

3. 算力扩张解决了看似无法突破的瓶颈

前两年有个共识:数据不够了,模型快要饱和了。人们开始担心,也许LLM的能力就此止步。

但AI研究者找到了新的路径。通过可验证奖励的强化学习,AI开始能够从自己的思考过程中学习,而不仅仅依赖外部数据。模型可以通过尝试、验证、反馈来优化自己。这打破了传统意义上的数据瓶颈。

算力的扩张不再只是加大参数,而是让模型有能力进行自我改进。这改变了整个发展的游戏规则。

4. 程序员们已经不再观望

曾经有一段时间,很多技术人员对AI的实用性还在保留意见。他们说这东西炒作成分太多,真正能干什么呢?

现在这种犹豫正在消退。程序员逐渐把AI当成同事,或者当成某种执行工具来用。不是出于对技术的盲目信仰,而是因为它真的能解决实际问题。从代码生成到问题诊断,再到逻辑优化,AI在日常工作里的角色变得越来越清晰。

这个转变最能说明问题。当一个群体从旁观者变成使用者,通常意味着什么东西真的可用了。

5. Transformer可能就是那个关键

关于AGI的路径,Salvatore有个看法:Transformer这个架构本身可能就是通往通用人工智能的关键。

但他同时强调,模型的本质没有改变,变的只是规模和训练方式。这听起来有点矛盾,但其实不是。如果Transformer确实是正确的方向,那么问题不在于我们需要发明什么新架构,而在于如何更好地利用现有的结构。

这个观察暗示一个可能性:也许我们不需要突然的技术革命,而是需要在现有基础上的持续改进。

6. ARC测试改变了对AI推理能力的评价

有一个测试叫ARC,设计来衡量抽象推理能力。早期的结果让人失望。人们以此说AI不会真正推理,只会模式匹配。

后来的情况变了。随着模型的改进和测试方法的调整,AI在ARC上的表现证明了它确实有推理能力。这不再是"AI模型能不能推理"的哲学问题,而是实实在在的性能指标。

从怀疑到证明,这个转变很重要。因为它意味着很多之前的批评,可能只是因为我们用了不恰当的测试方式。

7. 能力远超外界想象,争论在减少

综合Salvatore的这些观察,有个趋势很明显:大语言模型的实际能力比大多数人想象的要强。这不是夸大,而是现实与认知的差距。

关于AI能不能思考、能不能理解的争论声音在减弱。不是因为争论结束了,而是因为实证数据让很多问题变得更清楚。当一个东西持续表现出超出预期的能力时,人们自然会调整预期。

8. 失控才是真正的挑战

但Salvatore也指出了一个他认为更重要的问题。随着AI能力的提升,真正的挑战不是AI能不能做什么,而是如何确保它不会失控。

当AI的能力不清晰时,安全问题是理论性的。当能力变得清晰,问题就变成了实际的。如何设置限制、如何确保AI的行为符合人类的意图、如何预防潜在的风险,这些问题的重要性在上升。

这不是危言耸听。这是一个有经验的技术人员看到能力提升后,自然产生的关注焦点转移。

9. 不确定性依然存在,但方向变了

最后一个有意思的观点是,关于AI未来的不确定性依然存在。但这种不确定性的质量在变。

以前人们不确定AI能不能达到什么水平。现在人们更多是不确定AI会以什么速度达到,以及在达到的过程中会带来什么后果。不确定性从"能不能"变成了"怎么办"。

这个微妙的转变反映了认知的进步。我们对AI的理解在深化,不是在梦想,也不是在恐惧,而是在逐渐看清一个技术工具的真实面貌。

整个观察链条指向一个:AI的发展不是沿着人们预期的那些戏剧化的路线进行的。没有突然的"觉醒"时刻,也没有最终的失败。只是一个逐步的、由数据和实验驱动的过程,在这个过程中,我们对AI的理解在不断更新,对它的应用在不断拓展。

当争论声音变小时,通常有两种可能:要么问题确实解决了,要么大家都对现状有了某种共识。在AI的情况下,似乎是后者。争论的减少不是因为有了明确的答案,而是因为大家都在忙着应对这个已经摆在面前的技术现实。

有时候你会想,也许最重要的发现不是AI能做什么,而是我们在这个过程中学会了如何更准确地评价一个技术,而不是被想象和恐惧所左右。