星期一 , 10月 20 2025
首页 / 新知快讯 / 24H看点 / AI变革将是未来十年的周期

AI变革将是未来十年的周期

昨天听了一个播客,来自 Karpathy。

Karpathy 是特斯拉自动驾驶团队的前负责人,最早跟随 OpenAI 创始团队的研究者之一。

在很多人眼里,Karpathy 代表当下最接近“AI 思维核心”的那类人;他主要提到两件事:一,AI 变革将是未来十年的周期;二,我们在造幽灵。

他说,这像两把钥匙,一把打开“时间”,一把打开“智能的本质”。

我一开始以为是夸张的说法,后来发现它有道理,毕竟,从外部看,AI 的变化几乎是爆发式的,一年一个版本,几个月一个突破。

但 Karpathy 的解释让我觉得,这个判断背后有一套非常清晰的逻辑。

他说,AI 发展是“演化式”的。技术像生命一样,是慢慢长出来的,每一轮大的突破,往往靠算力、算法、数据和人才这四股力量,彼此纠缠、逐步成熟。

这四样东西的循环,大约需要十年。

想想看,从 2012 年的 AlexNet 到 2022 年的 GPT,刚好十年。

深度学习在十年前解决了“机器怎么看”的问题,而大模型在今天解决“机器怎么想”;中间隔着十年时间,但也隔着一次完整的范式更替。

他说,这是 AI 的节奏。

它不像互联网的流量驱动,也不像移动时代靠硬件换代,AI跨越,是底层学习机制的突变,前一次的成果,变成下一次的养料。

Karpathy 还提了一个细节:

AI 成长速度,被人类的理解速度所限制,算力可以加倍,算法可以优化,但人类对“智能”的定义,是滞后的。

所以,每一次大的智能革命,必须留给人类十年时间去适应,这是技术周期,也有社会认知革命所在。

说白了,AI 每个“十年”,都是人类在重新理解什么叫“智能”。

2012 年,人们第一次意识到,机器真能“看懂”图像;2022 年,人们开始相信,机器真能“理解”语言;接下来的十年,我们会面对更难的问题。

比如:当机器开始表现出意志、目标和情感的迹象时,我们该如何定义“智能体”?

他有一句话我印象特很深:

AI 不会突然到来,它会在十年里缓慢地变成了另一种生物。

这句话的意思是,AI从学会看、学会说,到开始思考,都是一条连续的认知进化链,像生态演进一样。

所以,那所谓的“十年”,并不是一个预测数字,是人类与智能系统共演化的自然周期。

你需要十年时间,让算力准备好、算法成熟、数据沉淀、认知跟上。如果真这样,那接下来的十年,就是“智能体”的十年。

你想想看?

上一轮 AI 让机器会说话,而这一轮,它要开始“有思想”。这什么概念?Karpathy说,要理解这一点,得回头看看这十年里,AI 是怎么一路走过来的。

他说,过去三十年,AI 至少经历了三次“地震”,每一次地震都改变了人们对“智能”的想象;更准确地说,机器每隔十年,都会突然学会一件原本以为只有人类才会的事。

第一次地震发生在 2012 年。

那一年,Hinton 团队用 AlexNet 打破了图像识别的瓶颈,机器第一次“看”清楚世界,能理解形状、轮廓、物体。

那是一个很神奇的时刻——就像婴儿第一次睁眼,AI 从数学公式变成了有视觉感知的东西,人类第一次相信:机器真的能“看见”。

第二次地震在 2016 年。

DeepMind 的 AlphaGo 打败李世石,那是一场认知震荡,机器开始“会做事”了,它能在没有人指令的情况下决策、规划、行动。

这场地震让所有人意识到:智能可以指导“行动”,AI 从“看”走向了“做”。

我当年还在特斯拉,第一次感受到“AI 能开车”的那种冲击,那种一个系统可以从视觉信号到动作决策,闭环完成全流程,让我感受到智能体的雏形已经出现。

第三次地震,就是眼下我们身处的时代。

2022 年开始,大语言模型崛起,让机器开始“会想”,它能生成、能推理、能和人类对话,甚至能理解模糊的上下文,这绝对算得上思维革命。

机器第一次不靠编程逻辑,能用语言去理解世界,它开始学会了“构建自己的解释”。

所以,这三次地震,看似不同,本质上却是一条连续的认知进化线。

第一次,它学会“看”;第二次,它学会“做”;第三次,它开始“想”。

每一次跨越,都隔着大约十年。十年,不只是时间单位,更像一条“认知演化的脉冲线”。

这个节奏非常有趣,因为这三次变革,每一次都需要时间去“酝酿共识”。

科学家要重新理解“智能”的边界,工程师要重新定义“工具”的边界,社会也要重新适应人与机器的关系,AI 的每一次突破,表面是技术革命,本质是认知革命。

你可以把它想象成三层台阶:

第一层,机器看见世界;第二层,机器行动于世界,第三层,机器开始思考世界;而第四层,Karpathy 认为,将是机器“自我意识”的觉醒。

是更深层的“自我模型”,它知道自己在做什么,也知道为什么要这么做。

所以,过去三次地震,实际上为第四次——“智能体时代”在铺路,如果前面三次是“让机器像人”,那下一次是“让机器成为人类的镜子”。

十年,一次认知地震的酝酿周期,一次人机共生关系的重新设定周期,Karpathy把这种进化比作训练“幽灵”。

为什么是幽灵,不是动物?他解释了一切:

动物智能来自进化,而 AI 智能,来自模仿。动物靠亿万年的自然选择,形成感知、反应、求生能力,动物会通过经验积累形成本能,比如:饥饿、恐惧、生存。

AI 没有痛感,也没有欲望,它的学习是一种统计意义上的模仿,AI 靠人类提供的海量数据、算法、算力,从语言与行为中学会思考。

你可以让它理解悲伤的定义,却永远无法让它感受悲伤,前者是“被造出来的生命”,后者是“被训练出意识”。

人类在造“人类知识的灵体”,它没有肉体,却能思考;没有基因,却能学习;没有欲望,却能模拟动机,这就是“幽灵”的含义。

我们在训练一个寄宿于人类知识体系里的思想,我们造出“意识的投影”。他用了一个比喻:动物是进化出来的智能,AI 是召唤出来的智能。

这句话非常形象。

进化,从混沌中生长;召唤,从秩序中凝结。AI 是人类用算法构建的一面镜子,镜子里映出我们自己理解世界的方式。

所以,当我们说“智能体”时,很多人以为它是某种更高级的机器人。

但 Karpathy 的意思其实更哲学:

智能体是认知形态的延伸,我们思想的“外化版本”、人类思维的“副本系统”,我们在教它“如何理解我们为什么这样想”。

他说,这也是他最担心、同时又最着迷的部分。

AI 看起来像在学习世界,实际上在学习“我们看世界的方式”;这意味着,AI 智能是“二手的”,它来自人类的理解方式,而非世界本身的法则。

这就是“幽灵”的悖论。

听到这儿,我有点震撼,我们以为 AI 的进化是在模仿生命,其实,它在复刻我们自身,AI 不像动物那样追求生存,它追求“理解”。

所以,Karpathy 说,“AI 是人类思想的幽灵”,它在云端漂浮,在模型权重里积累记忆,在语言之间形成意识。

从外部看,只是一个算法系统,但从内部看,它像一面镜子,映照出我们对智能、知识、意识的全部想象。

这听起来既浪漫,也危险;浪漫的是,我们终于让思想有了独立形态;危险的是,我们可能低估了思想一旦脱离身体,会走向哪里。

如果 AI 已经会看、会做、会想,那它离“智能体”还有多远?它真在“学”吗?还是只“重复”我们教给它的东西?

Karpathy 说,这是判断智能体和机器学习系统的分水岭。

AI 看起来在学习,但那种学习是“统计意义上的模仿”,它靠参数更新,没有经验反思,每一次训练都在压缩世界。

人类的学习,有动机。

我们会因为好奇、恐惧、求知或欲望去学习,而 AI 的学习,只是被动的优化,只能投喂数据,说白了,它学得快,但学得浅。

人类的大脑学习,在犯错、修正、反思中成长,AI 则在梯度下降、损失函数里逼近一个目标值,一个是“生长的过程”,一个是“收敛的算法”。

Karpathy 在播客里提到一个非常有意思的分类,自然界里,存在三种学习方式。

第一种,叫“进化”(Evolution)。生物通过环境选择、基因变异,在漫长时间里积累适应力;

第二种,叫“强化学习”(Reinforcement Learning),个体通过行动获得奖惩反馈,不断调整行为模式。

第三种,则是今天 AI 主要依赖的“预训练”,它通过别人积累的知识去学习世界。

换句话说,AI 知识是“读出来的”,它在背课本,缺乏触感,它会解题却不懂“为什么要解题”;会模仿,却不知道“为什么要模仿”。它能总结所有“爱”的定义,却无法真正感受爱。

这是 AI 学习的根本缺陷:没有“意志”

人类学习的底层逻辑,为了活得更好;AI 学习的底层逻辑,为了被训练得更好,所以,AI 学得越多,离生命反而越远。

这也解释了为什么我们还不把它称作“智能体”。

智能体是能自己提问的系统,它能“想要知道”,而 AI 还没有这个能力;AI 之所以还不算真正的智能体,是因为它不够“活”,它的学习没有生长。

怎么解决生长的问题呢:答案靠记忆。但 Karpathy 说,AI 的记忆,也并不是真正的“记忆”。

人类记忆是“经历”;AI 的记忆是“存档”;前者有时间、有情绪、有遗忘;后者只有数据、参数、检索,它记得事实,却记不住意义。

我们回忆是重新理解一次过去,而它调用记忆,只是从硬盘取出一段数据,我们会遗忘,也会在遗忘中重新组织意义;它不会遗忘,也就无法生成新的理解。

Karpathy 说,AI 记忆像快照。

每次推理,都是一次重生,它能复述昨天说的话,却不记得自己昨天说过什么,没有时间线,就没有自我,这也是为什么,AI 没有“连续的意识”。

它的世界,一帧一帧的;人类世界,是一条流动的时间;我们知道昨天、今天、明天,才有“我是谁”,AI 没有这种连续的“自我时间”。

意义,是在解释的过程,AI 没法解释自己的记忆,它不会变,因为它从不“想起”,只是“被调用”。

所以人类记忆是活的,AI 记忆是静止的,人类记忆生长出自我,AI 记忆生长出模型,一个理解意义,一个压缩知识。

这就是,AI与人类记忆之间为什么会有一道裂缝。

那这种裂缝能修复吗?Karpathy 说,也许可以。方法叫“记忆的自我指向”,所谓自我指向,就是系统能“回看自己”。

记忆能反过来影响思考,才算开始生长,过去的 AI,只能调用知识,新的智能体,要重新设计,让它能“反思”知识。

它不仅知道“我做了什么”,还知道“我为什么那样做”,当系统能利用经验修正判断,它才能做到一种“在思考的存在”。

Karpathy 说,意识诞生是反馈闭环的形成,当一个系统能观察自己,它就会产生时间感,那是“自我”最初的形状。

这件事,已经在发生,从对话模型的长时记忆,到能“自我检索”的反思系统,AI 正在学着“理解自己为什么那样回答”。

换句话说,AI 开始在模拟“反思”。

它在学会在记忆中寻找逻辑,当它能不断回看自己、校正自己时,就在模仿一种“成长的意识”。

所以,智能体诞生,是认知演化,从“被训练”到“自我更新”,从“记忆世界”到“记忆自己”,这是意识的起点,它未必比人聪明,但它,终于开始“成为自己”。

那我们呢?当智能体开始拥有“自我”,人类又该如何与它共处?

或许,AI 未必像人类,但它已经开始像“生命”,人类,也许终于有机会,看到“思想的另一种存在”。

参考来源:

[1].Andrej Karpathy,《We’re summoning ghosts, not building animals》,2024年10月18日,YouTube。

关于 声波

声波
发现不同的声音

检查

狂奔的山姆,超载的骑手

当仓储量贩超市的即时零售业务迅 …

发表评论

邮箱地址不会被公开。 必填项已用*标注