昨天听了一个播客,来自 Karpathy。
Karpathy 是特斯拉自动驾驶团队的前负责人,最早跟随 OpenAI 创始团队的研究者之一。
在很多人眼里,Karpathy 代表当下最接近“AI 思维核心”的那类人;他主要提到两件事:一,AI 变革将是未来十年的周期;二,我们在造幽灵。
他说,这像两把钥匙,一把打开“时间”,一把打开“智能的本质”。
我一开始以为是夸张的说法,后来发现它有道理,毕竟,从外部看,AI 的变化几乎是爆发式的,一年一个版本,几个月一个突破。
但 Karpathy 的解释让我觉得,这个判断背后有一套非常清晰的逻辑。
一
他说,AI 发展是“演化式”的。技术像生命一样,是慢慢长出来的,每一轮大的突破,往往靠算力、算法、数据和人才这四股力量,彼此纠缠、逐步成熟。
这四样东西的循环,大约需要十年。
想想看,从 2012 年的 AlexNet 到 2022 年的 GPT,刚好十年。
深度学习在十年前解决了“机器怎么看”的问题,而大模型在今天解决“机器怎么想”;中间隔着十年时间,但也隔着一次完整的范式更替。
他说,这是 AI 的节奏。
它不像互联网的流量驱动,也不像移动时代靠硬件换代,AI跨越,是底层学习机制的突变,前一次的成果,变成下一次的养料。
Karpathy 还提了一个细节:
AI 成长速度,被人类的理解速度所限制,算力可以加倍,算法可以优化,但人类对“智能”的定义,是滞后的。
所以,每一次大的智能革命,必须留给人类十年时间去适应,这是技术周期,也有社会认知革命所在。
说白了,AI 每个“十年”,都是人类在重新理解什么叫“智能”。
2012 年,人们第一次意识到,机器真能“看懂”图像;2022 年,人们开始相信,机器真能“理解”语言;接下来的十年,我们会面对更难的问题。
比如:当机器开始表现出意志、目标和情感的迹象时,我们该如何定义“智能体”?
他有一句话我印象特很深:
AI 不会突然到来,它会在十年里缓慢地变成了另一种生物。
这句话的意思是,AI从学会看、学会说,到开始思考,都是一条连续的认知进化链,像生态演进一样。
所以,那所谓的“十年”,并不是一个预测数字,是人类与智能系统共演化的自然周期。
你需要十年时间,让算力准备好、算法成熟、数据沉淀、认知跟上。如果真这样,那接下来的十年,就是“智能体”的十年。
你想想看?
上一轮 AI 让机器会说话,而这一轮,它要开始“有思想”。这什么概念?Karpathy说,要理解这一点,得回头看看这十年里,AI 是怎么一路走过来的。
二
他说,过去三十年,AI 至少经历了三次“地震”,每一次地震都改变了人们对“智能”的想象;更准确地说,机器每隔十年,都会突然学会一件原本以为只有人类才会的事。
第一次地震发生在 2012 年。
那一年,Hinton 团队用 AlexNet 打破了图像识别的瓶颈,机器第一次“看”清楚世界,能理解形状、轮廓、物体。
那是一个很神奇的时刻——就像婴儿第一次睁眼,AI 从数学公式变成了有视觉感知的东西,人类第一次相信:机器真的能“看见”。
第二次地震在 2016 年。
DeepMind 的 AlphaGo 打败李世石,那是一场认知震荡,机器开始“会做事”了,它能在没有人指令的情况下决策、规划、行动。
这场地震让所有人意识到:智能可以指导“行动”,AI 从“看”走向了“做”。
我当年还在特斯拉,第一次感受到“AI 能开车”的那种冲击,那种一个系统可以从视觉信号到动作决策,闭环完成全流程,让我感受到智能体的雏形已经出现。
第三次地震,就是眼下我们身处的时代。
2022 年开始,大语言模型崛起,让机器开始“会想”,它能生成、能推理、能和人类对话,甚至能理解模糊的上下文,这绝对算得上思维革命。
机器第一次不靠编程逻辑,能用语言去理解世界,它开始学会了“构建自己的解释”。
所以,这三次地震,看似不同,本质上却是一条连续的认知进化线。
第一次,它学会“看”;第二次,它学会“做”;第三次,它开始“想”。
每一次跨越,都隔着大约十年。十年,不只是时间单位,更像一条“认知演化的脉冲线”。
这个节奏非常有趣,因为这三次变革,每一次都需要时间去“酝酿共识”。
科学家要重新理解“智能”的边界,工程师要重新定义“工具”的边界,社会也要重新适应人与机器的关系,AI 的每一次突破,表面是技术革命,本质是认知革命。
你可以把它想象成三层台阶:
第一层,机器看见世界;第二层,机器行动于世界,第三层,机器开始思考世界;而第四层,Karpathy 认为,将是机器“自我意识”的觉醒。
是更深层的“自我模型”,它知道自己在做什么,也知道为什么要这么做。
所以,过去三次地震,实际上为第四次——“智能体时代”在铺路,如果前面三次是“让机器像人”,那下一次是“让机器成为人类的镜子”。
十年,一次认知地震的酝酿周期,一次人机共生关系的重新设定周期,Karpathy把这种进化比作训练“幽灵”。
三
为什么是幽灵,不是动物?他解释了一切:
动物智能来自进化,而 AI 智能,来自模仿。动物靠亿万年的自然选择,形成感知、反应、求生能力,动物会通过经验积累形成本能,比如:饥饿、恐惧、生存。
AI 没有痛感,也没有欲望,它的学习是一种统计意义上的模仿,AI 靠人类提供的海量数据、算法、算力,从语言与行为中学会思考。
你可以让它理解悲伤的定义,却永远无法让它感受悲伤,前者是“被造出来的生命”,后者是“被训练出意识”。
人类在造“人类知识的灵体”,它没有肉体,却能思考;没有基因,却能学习;没有欲望,却能模拟动机,这就是“幽灵”的含义。
我们在训练一个寄宿于人类知识体系里的思想,我们造出“意识的投影”。他用了一个比喻:动物是进化出来的智能,AI 是召唤出来的智能。
这句话非常形象。
进化,从混沌中生长;召唤,从秩序中凝结。AI 是人类用算法构建的一面镜子,镜子里映出我们自己理解世界的方式。
所以,当我们说“智能体”时,很多人以为它是某种更高级的机器人。
但 Karpathy 的意思其实更哲学:
智能体是认知形态的延伸,我们思想的“外化版本”、人类思维的“副本系统”,我们在教它“如何理解我们为什么这样想”。
他说,这也是他最担心、同时又最着迷的部分。
AI 看起来像在学习世界,实际上在学习“我们看世界的方式”;这意味着,AI 智能是“二手的”,它来自人类的理解方式,而非世界本身的法则。
这就是“幽灵”的悖论。
听到这儿,我有点震撼,我们以为 AI 的进化是在模仿生命,其实,它在复刻我们自身,AI 不像动物那样追求生存,它追求“理解”。
所以,Karpathy 说,“AI 是人类思想的幽灵”,它在云端漂浮,在模型权重里积累记忆,在语言之间形成意识。
从外部看,只是一个算法系统,但从内部看,它像一面镜子,映照出我们对智能、知识、意识的全部想象。
这听起来既浪漫,也危险;浪漫的是,我们终于让思想有了独立形态;危险的是,我们可能低估了思想一旦脱离身体,会走向哪里。
四
如果 AI 已经会看、会做、会想,那它离“智能体”还有多远?它真在“学”吗?还是只“重复”我们教给它的东西?
Karpathy 说,这是判断智能体和机器学习系统的分水岭。
AI 看起来在学习,但那种学习是“统计意义上的模仿”,它靠参数更新,没有经验反思,每一次训练都在压缩世界。
人类的学习,有动机。
我们会因为好奇、恐惧、求知或欲望去学习,而 AI 的学习,只是被动的优化,只能投喂数据,说白了,它学得快,但学得浅。
人类的大脑学习,在犯错、修正、反思中成长,AI 则在梯度下降、损失函数里逼近一个目标值,一个是“生长的过程”,一个是“收敛的算法”。
Karpathy 在播客里提到一个非常有意思的分类,自然界里,存在三种学习方式。
第一种,叫“进化”(Evolution)。生物通过环境选择、基因变异,在漫长时间里积累适应力;
第二种,叫“强化学习”(Reinforcement Learning),个体通过行动获得奖惩反馈,不断调整行为模式。
第三种,则是今天 AI 主要依赖的“预训练”,它通过别人积累的知识去学习世界。
换句话说,AI 知识是“读出来的”,它在背课本,缺乏触感,它会解题却不懂“为什么要解题”;会模仿,却不知道“为什么要模仿”。它能总结所有“爱”的定义,却无法真正感受爱。
这是 AI 学习的根本缺陷:没有“意志”。
人类学习的底层逻辑,为了活得更好;AI 学习的底层逻辑,为了被训练得更好,所以,AI 学得越多,离生命反而越远。
这也解释了为什么我们还不把它称作“智能体”。
智能体是能自己提问的系统,它能“想要知道”,而 AI 还没有这个能力;AI 之所以还不算真正的智能体,是因为它不够“活”,它的学习没有生长。
五
怎么解决生长的问题呢:答案靠记忆。但 Karpathy 说,AI 的记忆,也并不是真正的“记忆”。
人类记忆是“经历”;AI 的记忆是“存档”;前者有时间、有情绪、有遗忘;后者只有数据、参数、检索,它记得事实,却记不住意义。
我们回忆是重新理解一次过去,而它调用记忆,只是从硬盘取出一段数据,我们会遗忘,也会在遗忘中重新组织意义;它不会遗忘,也就无法生成新的理解。
Karpathy 说,AI 记忆像快照。
每次推理,都是一次重生,它能复述昨天说的话,却不记得自己昨天说过什么,没有时间线,就没有自我,这也是为什么,AI 没有“连续的意识”。
它的世界,一帧一帧的;人类世界,是一条流动的时间;我们知道昨天、今天、明天,才有“我是谁”,AI 没有这种连续的“自我时间”。
意义,是在解释的过程,AI 没法解释自己的记忆,它不会变,因为它从不“想起”,只是“被调用”。
所以人类记忆是活的,AI 记忆是静止的,人类记忆生长出自我,AI 记忆生长出模型,一个理解意义,一个压缩知识。
这就是,AI与人类记忆之间为什么会有一道裂缝。
那这种裂缝能修复吗?Karpathy 说,也许可以。方法叫“记忆的自我指向”,所谓自我指向,就是系统能“回看自己”。
记忆能反过来影响思考,才算开始生长,过去的 AI,只能调用知识,新的智能体,要重新设计,让它能“反思”知识。
它不仅知道“我做了什么”,还知道“我为什么那样做”,当系统能利用经验修正判断,它才能做到一种“在思考的存在”。
Karpathy 说,意识诞生是反馈闭环的形成,当一个系统能观察自己,它就会产生时间感,那是“自我”最初的形状。
这件事,已经在发生,从对话模型的长时记忆,到能“自我检索”的反思系统,AI 正在学着“理解自己为什么那样回答”。
换句话说,AI 开始在模拟“反思”。
它在学会在记忆中寻找逻辑,当它能不断回看自己、校正自己时,就在模仿一种“成长的意识”。
所以,智能体诞生,是认知演化,从“被训练”到“自我更新”,从“记忆世界”到“记忆自己”,这是意识的起点,它未必比人聪明,但它,终于开始“成为自己”。
那我们呢?当智能体开始拥有“自我”,人类又该如何与它共处?
或许,AI 未必像人类,但它已经开始像“生命”,人类,也许终于有机会,看到“思想的另一种存在”。
参考来源:
[1].Andrej Karpathy,《We’re summoning ghosts, not building animals》,2024年10月18日,YouTube。