为什么我们需要多范式人工智能
AGI 在何处?是“世界模型”还是其他?
如何做到 AGI,见仁见智。但 AGI 的路途上,至少有三个障碍,需要被科学家和工程师征服。
其一,关键任务的可靠性问题。(Reliability in Mission Critical)
LLM 的泛化能力让我们再次燃起了“通用智能”的热情,一如若干年前的逻辑推理机、元胞自动机、深度学习……。
且不说 LLM 的路线是否怎能到达 AGI。短期来看,众多 LLM 玩家,能否获得资本的持续投入,顺利的走下去,只取决于一点:
“LLM 能否承接关键任务,用户是否有意愿为之付费。”
这里我们把“关键任务”定义得宽泛一点,在企业应用场景里,可以指代所谓 Line of Business 或者 Mission Critical 。
前者是帮助企业吸金的主生命线;后者如果出了问题,客户流程受阻,极大影响用户体验,企业没法丝滑地赚钱。
所谓关键任务,不止是在企业领域,在个人领域,也是如此。
所谓的个人关键任务,例如转账汇款,例如给父母购买保险,例如给孩子填报志愿,例如人力资源岗给受聘者发 offer,例如财务岗为领导出报表……
种种迹象表明,无论企业还是个人,现有的大多数 LLM 驱动的 AI 智能体,还不足以让我们足够信赖,把关键任务完全交给他们。
2025 年 8 月,MIT研究:在企业中,95% 的生成式 AI 项目未能实现有效商业回报,也就是说,没有进入 Line of Business 领域。
根据我此前对谷歌、微软、OpenAI 公开的1400 个案例的分析,生成式 AI 在企业的主要作用还局限于机器客服、知识库、内容辅助等降本增效场景。智能体们并未造就新的业务增量。
迄今为止,唯一被证明的强付费意愿需求,是 AI 编程;唯一被彻底颠覆的行业,是软件行业。
2025 年上半,Manus 作为第一个成功商业化的自主智能体震撼资本市场,后被 Meta 收购。2026 年 3 月,OpenClaw 热潮兴于大洋两岸。随着“宪法式” LLM 驾驭能力的不断增强,智能体规划任务、生成子任务的本领让人眼前一亮。
华东某市市长在接受采访时,鼓励灵活就业人员搞 OPC,“养龙虾”。
中国官员殊为不易,既要向上管理,又心系民生。试图抓住一切新技术机遇,尽力解决闲置劳动力填饱肚子的问题……
自动化适度的软件叫做工具;自动化无度、复制自我的软件叫做病毒。“熊猫烧香”是古早味智能体。
为数甚多的“失控”案例表明,龙虾并非可靠。
让它写篇应付了事的小学生海报、点份外卖也许没有问题。但如若是涉及到钱的问题、升学的问题、职场的问题、遗产的问题,……我相信,大多数人只会让它帮着找素材、提建议,而绝不敢将身家性命、升官发财之事全然托付于它。
因为龙虾的行为,“不可解释”,具有“不可预测性”,且有点过于自动化。
正由于龙虾的“黑盒”和“半病毒”属性,各级政府机关和事业单位连忙纷纷发文,未报备,不得私自在单位网络放养龙虾。
Claude Code,作为一个任务高度聚焦、沙箱,机制完善的编码智能体,都有将代码库一删了事的恶案。何况手足灵巧的龙虾。
“不可解释”和“不可预测”是大语言模型的原罪。传统的,基于规则的 AI 可解释,但是泛化能力弱,而 LLM 的泛化能力强。“不可解释性”和“强泛化能力”似乎是利刃的一体两面。
“幻觉”是 LLM 的另一个原罪。OpenAI 的研究表明,模型幻觉的根源并不来自于它的架构,而直接来自于人类如何训练它。
明明大模型没有压缩有关知识,人偏要强求它说个一二三,没办法,它只能“编”。
“一本正经的胡说八道”,像一个努力的小学生,而不是一个诚实的小学生。
虽然,相较于两年前,主流的商业与开源模型,在“幻觉”问题上有很大进步。但是即便将准确度提升至 99%,幻觉只占 1%,人类也很难在关键任务中信赖它。
特别之于重大决策,1% 很可能就是要命的部分。
99% 安全性的电梯谁敢乘坐?
其二,算力的诅咒。(Curse on Computing Power)
硅芯片的制程进展,已经在 2nm 边缘徘徊了好几年。
2025 年 5 月发布的 DeepSeek R1模型,可谓是“开源”(开放权重)大语言模型的代表。
这是开源领域第一个明显短板的 LLM,功能接近 OpenAI 的 O1。会思考,编程能力不弱,但不支持多模态(不能识图)。
运行这个模型需要什么样水准的算力?
满血版的 DeepSeek R1 的推理至少需要一台 8 卡 H200 的AI服务器,成本 200 多万。大语言模型是电老虎,这个配置实际运行大概每天 200 多度电。
除了电力,LLM 需要“新陈代谢”。如果 DeepSeek 运行的算力部署在颇为流行的“水冷”数据中心,10 次与它的聊天交互,基本上会消耗一瓶纯净水。
DeepSeek 的复杂性超过人脑吗?
DeepSeek R1 6710 亿个参数,不精确的换算,相当于约 450 亿个计算机神经元。脑科学告诉我们,人脑大概有 860 亿个神经元细胞。看似两者差距不大。
但是,碳基生物神经元细胞之间有更复杂的连接,大致 3000 种以上生物电和化学的通信机制。如在计算机里面模拟,等效的参数规模大概有 600 万亿个。
也就是说,一台“人脑”大模型的复杂程度,至少是 DeepSeek 的 1000 倍。
现在的芯片制程水平,算力效率,距离大自然造物“人”,差距还很遥远。
因为个人隐私的问题,敏感数据“不出手机”,但没有真实的个人数据的支撑,AI 对人难有真正的“大用”。
但如今,生成式 AI 的算力瓶颈在“端侧”。手机端的大模型能力尤其羸弱, LLM 是“内存杀手”,无论多么高端的手机,满血运行 10 亿参数以上的模型,基本不可能。
手机上的 AI 也有能耗难题,苹果 Apple Intelligence 核心功能一再跳票,很可能是其过快的耗电严重影响用户体验。
即便是最强大的 AI PC,也难以胜任个人满负荷的生成式 AI 应用需求。电商价格近 4 万人民币的 Nvidia DGX Spark,在处理 AI 编程任务时,每秒 10 多个的 token 产生速度,让“码农”用户抓狂。
其三,来自数据“苦涩的教训”(Bitter Lesson from Data)
2025 年的图灵奖获得者,强化学习之父 Richard Sutton 认为,人类不应该妄自形而上“智能”的本质。算力的合理利用 + 自然界的数据,方能导致更通用的智能。
然而, 无论何种“智能”的技术路线,训练、推理数据的质量决定了智能的最终表现水平,garbage in, garbage out。
数据中的错误并不来自于大自然本身,而来自于人类的观测手段,传输拼接的偏差,以及其中有意无意注入的“意见”。
LLM 范式,得益于数十年来互联网的开放性。它利用自监督学习进行预训练,利用监督学习和强化学习原理进行后训练。
互联网的高质量的、可利用的、无版权问题的文本,总量约 300 万亿 tokens。根据 Ilya Sutskever,Elon Musk 等人在不同场合的表述,互联网文本数据在 2026 年前后开始耗尽。
公开数据充满错误,行业高质量数据稀缺,跨域关联数据不易获得。这是生成式 AI 发展路径上的重大瓶颈。
沿着李飞飞、杨立昆等人的路线,如果 world model 是生成式 AI 的下一步,到那里寻找高质量的、多模态的数据集用于训练?
AGI 还是 “Powerful AI”?
回看这三个问题,AGI 并非触之可及,山姆·奥特曼对于 AI 乌托邦的乐观预言更像是天方夜谭。
一方面是,“AI”这个关键字在艺术品、影视作品中渐沦为廉价;在广告中变成毒药;在客服流程中,不断驱使电话这头的你心急火燎地等待着“转人工”的提示。
另一方面,以英伟达为首的“新科技七子”股价又创新高,资本财富的集中度,超越了历史上任何时期。
这不禁让人开始担心 AI 的科技泡沫。
科技学者罗伊·阿马拉有句名言,“我们总是高估技术在短期内的影响力,却低估其在长期带来的变革。”
当前,生成式 AI 的发展似乎正印证着这一点。个人在效率应用中,一旦使用过 LLM 加持的智能体,如毒品上瘾一发而不可收;在政府、企业,以及个人的关键业务中,它却迟迟登不上主流。
以大语言模型范式的路线追求 AGI,是兼具泛化能力、创造性和精确性的,无瑕疵的“上帝”智能?还是融合理智与情感、傲慢与偏见,能阐述世界、在错误中辩证求索的人类智能?还是说,一种简单的,脱离碳基载体的,一份触达万物的纯粹的理性?
当资本狂欢与技术瓶颈形成鲜明对比时,我们更需要冷静思考,AGI 到底是什么?
也许一千个人,有一千种 AGI。
AGI 何时降临,见仁见智。但“强大的 AI”(Powerful AI),似乎近在咫尺。
Powerful AI,是 Anthropic CEO,Dario Amodei 发明的词汇。相比 AGI,它有清晰的内涵和外延。
Claude 大模型是全球最为“功能聚焦”的大模型,它特别擅长于计算机编码。 Claude 模型和 Anthropic 公司的技术、商业实践,很好的阐释了什么是“强大的 AI”。
简言之,就是有效地利用工具,包括判断是否要利用工具,如何制定规划精准地利用工具。
古早的政治教材告诉我们,“会使用工具,是我们的祖先从猿到人走出的第一步……”
无论模型多么聪明,对问题,如果只是用“瞪眼法”直出答案,比拼“最强大脑”,能力毕竟有限。
智商高如爱因斯坦,如果仅凭大脑,与一个 20 元钱的计算器比拼 5 位数乘法,未必能够每次取胜。
以 Claude 为代表的大语言模型,每一次升级换代,无非是要把下面的事情做得更好:
- 知道就是知道,不知道就是不知道。如果不知道,不要胡编乱造,要求助于外部工具。(宪法式 AI,降低幻觉)
- 在求助于外部工具的过程中,更合理的规划任务(思维树剪枝)
- 积累经验,后续碰到类似的任务,照方抓药(Skills)
所以,所谓 Powerful AI 的本质,就是“自知之明,驾驭工具”。
小龙虾这个智能体,用 LLM 即时编写代码,调用用户沙箱中的命令行和 App,解决问题。这就是 Powerful AI 的一种表现。
2026 年 2 月的数据显示,Anthropic 年化收入增长迅速,首次超过了 OpenAI。其诀窍就在于 Claude 是一个善于利用工具的 SOTA 模型。——在它找不到好的工具时,它强大的编码能力也让它能随手写一个可用的软件工具!
Powerful AI ≠ 可解释 AI
然而,Powerful AI 并没有从根本上解决生成式 AI 进军“关键业务领域”的问题。
这是因为,首先,Anthropic 的“宪法式 AI”是在降低幻觉,但不是“根除”幻觉。
模型深层次的幻觉,往往并不体现结果中(参考文献),而体现于过程中(模型认为自洽,但不符合客观世界的那些 Skills)。也就是,模型规划的任务中。
其次,LLM 的子决策的“不可解释性”。
有人会说,大模型聊天机器人,不是挺会解释它做事情的理由的么?阿谀奉承,见风使舵,巧舌如簧。
当然,它每次都解释得不一样,基本上,是在根据用户的偏好作“解释”,很多时候,在“圆谎”。
我们所说的大语言模型缺乏“可解释性”,并非指摘它无法自证清白,而是说它的行为“无来由”。它规划子任务,是训练知识的无序解压缩,其内容完全来自于上下文注意力、 token 输出的随机性,缺乏量化的依据。
“可解释”对 LLM 是个难题,看起来仅仅是它的难题。事实上,“可解释”的 AI,古而有之。
上世纪 50 年代,达特茅斯会议催生的“符号主义”人工智能,以及此范式下衍生品,约翰·麦卡锡的情景计算、纽维尔和司马贺的通用问题求解、明斯基的“框架”体系,以及风靡一时的“专家系统”,理论基础可以上述到莱布尼兹的哲学,在“可解释性”上没有问题。
“联结主义”源于麦卡洛克和皮茨的计算机神经元仿生研究。历史上几经波折,“深度学习”在杰夫·辛顿领军的多伦多学派的不懈推动下,2010 年后王者归来,ImageNet 竞赛中的压倒性胜利是其标志。
深度神经网络,在计算机视觉的训练、推理过程中,从每一个人工神经元的微观表现上,看似不易解释。但从数理统计的角度,每一层、乃至网络结构整体上,能够得到一定程度的解释。“卷积”卷出来什么东西,监督训练用的样本偏差如何量化,还算清楚。
朱迪亚·珀尔因为“因果论”获得 2011 年图灵奖。他的工作连接了因果推断和统计学习。结构因果模型(SCM),用“有向无环图(DAG)+ 结构方程”表达复杂的因果关系。SCM 的优势在于“可解释”。
珀尔本人对深度学习路线的“可解释性”呈负面意见,他的知识模型里,有一个因果阶梯,从”关联”(seeing)到”干预”(doing)再到”反事实”(imagining)。珀尔认为深度学习停留在”关联”层面,也就是第一层级。
结合符号逻辑与深度学习的可解释 AI 也不乏杰作,樊文飞先生提出的“图关联规则”,将知识图谱与神经网络在架构中融合,既保留了符号推理的可解释性,又具备深度学习的“软”计算能力。
如他所言:“真正的智能应该像人类一样,既能运用直觉快速反应,又能通过逻辑验证每个决策。”
这些可解释的 AI 范式,数十年来,已经在无数关键业务取得了广泛的部署。
1986 年,Force Requirements Expert System 在美军珍珠港基地的测试环境中安装。这是“符号主义”的专家系统在军事领域的第一个正式合同和部署。该项目由 DARPA 资助,BBN 公司合作开发。
2014 年,特斯拉发布 Autopilot 系统,采用 Mobileye 的视觉模块+毫米波雷达组合,标志着机器视觉从实验室走向大规模商用,进入智能驾驶这一关键领域。
2024 年,深圳烟草公司采用“钓鱼城”预测模型研发产品配方,同城的经侦、海关部门使用相似的技术辅助违法探测,精度令人满意。
走向“多范式 AI”
然而,过去几十年,人工智能最大的问题,是很难“泛化”问题。专家系统局限在一个个专业领域语言的烟囱里,让李世石愤而退出棋坛的 AlphaGo 不会下五子棋,识别率超过 99% 的深度神经网络对处理数学公式无能为力。
2022 年之前,人工智能“一专”,而非“多能”。
以大语言模型为代表的生成式 AI 则相反,虽然它的表达能力没有超过一阶谓词逻辑,但它的泛化能力却胜过了过去所有的人工智能范式——至少在语言领域是如此。
维特根斯坦讲,“语言是文字的游戏”。任何人要来一场游戏,大语言模型就奉陪一场游戏。
两者对比,如古希腊诗人 Archilochus 所讲,“刺猬只擅长一件事,而狐狸知晓诸多。”
科学史上,哥德尔、图灵常被比作刺猬,而伯特兰·罗素、冯诺依曼则被比作狐狸。
可解释的 AI 可被比作刺猬,目标明确的“机器视觉”亦可被比作刺猬,而大语言模型可被比作狐狸。
多种 AI 范式的融合,方能产生真正 Powerful 的,能征服关键业务领域的 AI。
在“多范式 AI”的范式下,智能体中的 LLM 不只是驱动工具去调用其他的 AI 技能,它的规划、决策也要依靠可解释的 AI。
这样的技术路线,比 Dario Amodei 描述的 Powerful AI 要更加 Powerful。Amodei 在他的两篇文章中,提到了 Powerful AI 的目标要比 AGI 更为清晰和实际。然而,模型强大如 Claude Opus,也难承诺在任务规划和决策的过程中完全根除“直觉”和“幻觉”。
“直觉”规划是大语言模型里不可解释的“思考”,幻觉的根源来自于模型在生成 token 的过程中“尽力输出”的导向,以及过于自省的世界观。
Anthropic 的模型可解释性工作,很多努力是放在了给模型做 fMRI 上。他们在模型“思考”的过程中,控制不动点,为参数注入偏差,观察模型输入 token 前参数激活区域的变化。和脑科学家为人/动物做脑核磁共振类似。
然而,解刨式发现真理的方法,或许只能观测到智能的底层线索,却无法窥探智能的复杂性涌现本质。
如阿兰·图灵所言,我们在剥开洋葱探究智能的真理,一层接着一层,也许认为珍贵的事实就位于其“核心”。然而,如洋葱一样,外层和内层可能本无区别,中间空空如也。
在多范式 AI 的模式下,大语言模型最大的作用,是为可解释 AI 的模块解决语言游戏的上下文,以及推理输入“接地”的问题。
面对缺乏过往样本的规划决策问题,它不得不依赖大模型自身的推理。然而,如果任务足够明确,经验足够丰富,它完全可以驱动可解释 AI 的方法,来作为构造任务工作流的量化依据。
Powerful AI 的后果
谈及 AGI,不免谈到“奇点”。大多数人想象中的奇点是“技术的奇点” —— AI 一瞬间获得人类所有的知识,并在其上进行组合、推论的幂级创造,把人类智能远远抛在身后。
机器的可怕之处,在于相互之间没有“信息偏差”和“沟通成本”。一个模型达到了 AGI,和其他模型叠加的威力远远大于几十亿尔虞我诈、固步自封的碳基生物累加在一起的威力。
而人类,似乎只有艾萨克·阿西莫夫“机器人三原则”此类规范的阵地。
“机器不可杀人”。此类规范的阵地一如道德的阵地,模糊、脆弱而且不持续。
美国曾经是西方世界最为保守的国家。三十年代的清教徒眼中,桌腿如果不用桌布严实地遮挡,都是“寓意淫秽”的,道德低下的。
然而,五十年代后的冷战和热战,经济规律促使美国一代年轻人摧毁了信仰。嬉皮士文化肆意,耶稣的教导不再具备统治力。
从历史的角度看,道德是自然选择的复杂性体现,一种社会生存和延续实践的形而上。人和机器之间的契约也是。
人类制订了个人隐私的信息规则、数据跨境的规则、生成式 AI 的作品不可为法律依据的规则……,但迄今,人机契约的履行者仍然是人类。人类从自身群体角度,构思、起草、修正、发布、实践、迭代,一切为了不要破坏太多安宁和祥和,和一个新物种更好的共存。
但这些任务一点点被 AI 蚕食,态势终将改变。
孔子曰“礼崩乐坏”。
西奥多·阿多诺讲:“人类在走向现代科学的征途中,已将意义舍弃一旁。公式取代了概念,规律与概率替代了因果。”
我们在忧惧之时,叹一口气,“所幸,AGI 离我们尚远。”
然而,可怕的是,到达所谓的奇点,机器道德的崩塌、人类防火墙的失守,也许不需要 AGI。Powerful AI 就可以做到这一点。
因为 Powerful AI 在帮助人类做“判断”,虽然始于细枝末节而非“决断”。但人类生死攸关的千里之堤,或溃于蚁穴。
加拿大经济学家阿杰伊·阿格拉沃尔在 2023 年的《权力与预测》一书中,颇为乐观地如此论断:
“战略执行者通常将‘预测’和‘判断’捆绑在一起,进而决策。AI 的引入,使这两者得以分离——预测部分可以由 AI 系统完成;判断部分则由人类提供。”
彼时,ChatGPT 刚刚发布,vibe coding 的概念没有提出, Manus 和 OpenClaw 这些自主智能体的创始人还在大厂“朝九晚五”。
然而,现在 Powerful AI 就是在替人类做判断,大大小小的判断。
“人有人的用处”
数十年证明,可解释 AI 的做出判断没有让人类面临重大危机。
传统的符号主义虽然没有如期望实现 AGI,但在军方、金融等关键领域的决策辅助方面,局部成果可谓卓著。
洪荒年代时,符号主义人工智能的投入并非血本无归,它至少在上世纪 80 年前后创造了如火如荼的“专家系统”市场。而且,据美国军方公开资料显示,1991年,第一次海湾战争中部署的 DART 调度应用程序回报了 DARPA 之前 30 载在人工智能研究上的投资。
除非是丧心病狂的独裁者,理性人类对重大事项的判断,也绝少造成灭国之灾。
1962年10月,古巴导弹危机。
瓦西里·阿尔希波夫(Василий Архипов)为苏联第 69 潜艇旅参谋长,指挥四艘”狐步”级柴电潜艇前往加勒比海。
27日,编队中的 B-59 号潜艇在古巴附近海域被美国海军发现,美军航母“兰道夫号”率领11艘驱逐舰将其包围,并投掷训练用深水炸弹试图逼迫它上浮。
当时该潜艇处于极其恶劣的环境中:电池即将耗尽,空调系统失效,舱内温度高达 50-60 摄氏度,二氧化碳浓度达到危险水平,许多船员昏迷。更关键的是,潜艇已与莫斯科失去联系数日,完全不知道外界是否已经爆发战争。
当深水炸弹在潜艇附近爆炸时,艇长萨维茨基中校误以为第三次世界大战已经打响,愤怒地下令准备发射核鱼雷。
他高喊:“我们现在就把美国人炸翻天,我们自己若葬身鱼腹,但要他们陪葬!”
按照苏联海军的规章,发射核鱼雷需要艇长、副艇长和政委的一致同意。当时政委马斯连尼科夫已经表示赞同发射。
但当前任潜艇编队参谋长兼任 B-59 大副的阿尔希波夫坚决表示反对。
在激烈的争论中,阿尔希波夫凭借他经验的判断和冷静的分析,最终说服萨维茨基让潜艇上浮,与莫斯科重新建立联系后再做决定。当 B-59 浮出水面时,美军驱逐舰用探照灯照射并发出信号,苏联船员这才确认战争并未爆发。
阿尔希波夫的故事长期被尘封,直到 2002年 古巴导弹危机纪念大会上,美国国家安全档案馆馆长托马斯·布兰顿才公开这一故事。2017年,未来生命研究所追授阿尔希波夫首届“未来生命奖”,以表彰他“冒着个人风险且没有明显回报、保护人类集体未来的非凡举措。”
这位苏联军官,用一声坚定的“不”,避免了可能毁灭半个世界的核战争。
这个故事在若干行为经济学的著作,以及鸡汤文中反复出现。当我们论及 AI、论及“人 vs 硅基智能体”这一话题,至少说明:人类对重大事项的判断,一个出发点在于对生命同理心的良知,一个终止点在于对死亡的天然畏惧,机器的“直觉”则难以做到。
可解释 AI 在类似情况下,至少会告诉人类它的判断依据,或许,应样本量太少,它的输出为“不判断”。
但大语言模型那些“不可解释”的判断却非如此。它 best effort 的目标下,倾向于“一定要给一个答案。”
2024年,斯坦福大学研究人员用当时最好的 5 个模型进行战争决策模拟,5 个模型都将战争升级为核战争。
两年后,伦敦国王学院进行了类似试验。结果显示,这些模型在危机情境下倾向于升级冲突,建议使用核武器,其中95%的模拟游戏至少引爆了一枚战术核武器。
或许,多范式的 AI,用其白盒可解释性,助力大模型驱动的智能体做关键事项判断,能在一定程度上降低灭世危机的几率。
无论如何,Powerful AI 也好,多范式 AI 也罢,必须要是“可信的 AI”、“可靠的 AI”,这点尤为重要。
参考与感谢
- Shrimp and other icons created by Vector Squad et. al. - Flaticon
- Challapally, Aditya, Chris Pease, Ramesh Raskar, and Pradyumna Chari. 2025. “MIT研究:95%的企业生成式 AI 试点未能实现有效商业回报 STATE OF AI IN BUSINESS 2025.” MIT.
- Chen, Sophia. 2025. “How Much Energy Will AI Really Consume? The Good, the Bad and the Unknown.” Nature 639 (8053): 22–24. https://doi.org/10.1038/d41586-025-00616-z.
- Kalai, Adam Tauman, Ofir Nachum, Santosh S Vempala, and Edwin Zhang. 2025. “Why Language Models Hallucinate.”
