|
在这两年的大模型狂欢里,我们似乎习惯了用“颠覆”“重构”“新纪元”来形容一切变化。写文档用AI、写代码用AI、开会记要点也用AI,仿佛一个“语言大模型”就可以变成通用大脑,接管知识工作的各个环节。 但如果把情绪抽掉,只从系统角度冷静看一眼,会发现:
今天的大语言模型不只是“有缺点”,而是存在几条很难跨过去的“结构性边界”——这些边界决定了,它注定不可能成为世界的终极操作系统。 下面这七个“致命缺点”,并不是只是挑刺,而是试图把问题说清楚:大模型到底在哪儿强,又在哪儿永远够不到。
一、语言大模型是“有损概率压缩”,幻觉是结构性问题
从工程的角度看,大语言模型本质上就是一个巨大的概率模型:用有限的参数,对海量语料做一次“有损压缩”,再在这个压缩后的空间里做下一个 token 的概率预测。 它靠的不是“演绎推理”,而是“最像的那一句话”的统计学直觉。 这就像把整个人类知识挤进一个高维向量空间,多余的细节、边缘场景、不常出现的组合,会在压缩过程中被模糊甚至舍弃。 于是,“幻觉”就不是一个 bug,而是这种有损压缩的必然副作用: 模型并没有“记住每一句话”,而是学到一个模糊的知识表示; 当语境稍微偏离训练分布,或需要精确细节时,它只能“脑补”一个看起来很像的答案; 这种脑补在日常对话里问题不大,但在高精度场景(法律条款、金融数据、工程参数)里,就会变成灾难。
一个常被忽略的比喻是:
物理定律只是几行公式,真正让“万物运行”的,是整个宇宙这个模拟器本身。如果没有这个巨大的“运行环境”,牛顿定律不过是教科书上的几行文字,不会自动长出星系、行星和生命。 语言大模型也一样: 它手里拿着的是人类写下来的“公式、总结和故事”,却并没有一个对应的“宇宙模拟器”去跑这些定律——只有文字,没有世界。 想靠文字里的有损概率压缩,反推出“万物运行的真实规律”,并且做到可靠可控,几乎是不可能的任务。
二、人类靠闭环反馈进化,大模型却困在单向输出里
很多人说:“人类也经常犯错,人脑不也像个概率模型吗?” 没错,人确实经常判断失误,但人类智力成长的核心不在于“一次回答对不对”,而在于: 人长期生活在一个强反馈的闭环里。
你说错话,会看到别人皱眉或反驳; 你做错决策,会立刻在业绩、关系、健康上收到后果; 你踩坑一次,下次就会小心——这是一个类似自动控制里的负反馈闭环系统。 也就是说,人类不是“离线训练一次,终身推理”,而是在持续地与环境交互、试错、更新自己的世界模型。 反观今天的大语言模型,大部分时候处于一种非常诡异的状态: 它既看不到行为在环境中的真实效果,也无法持续更新自己的内部模型。 这就好像把一个人关在房间里,只能看书写作业,却永远不让他出门与世界接触——他的知识也许很广,但许多判断永远停留在纸面推理。 真正的智能系统,必须是“感知—决策—行动—反馈—更新”的完整闭环; 而今天的大语言模型,更多只是从“感知到的历史文本”直接跳到了“语言输出”,中间缺少对环境的实际作用与修正,这种开放环结构注定限制了它的上限。
三、无法真正“理解”数字世界的底层软件与操作系统
有一种流行说法:让大模型去“写代码、跑程序、观察结果”,就能获得类似现实世界的反馈。听起来很美好,但现实残酷得多。 今天的大语言模型,和数字世界的关系,大致还停留在: 通过一扇很窄的“终端窗口”,往系统里敲命令,再把看到的几行输出拿回来继续推理。
它并不理解操作系统的整体结构,不知道进程调度、内存管理、文件系统、网络栈是怎样协作的; 它也看不到完整的系统状态,只能看到被提示词“喂过来”的那一点点片段。 更要命的是,它无法跳出当前操作系统视角去看更大的“数字世界全景”: 对人类工程师来说,这些都是每天要处理的“上下文”,但对模型来说,它只看到几个函数名和日志片段,很难对整体系统形成稳定的心智模型。 如果我们真想让AI在数字世界里获得像样的反馈,其实需要的是: 现在的大模型更多是把自己当成“更聪明的命令行用户”,而不是“理解并优化系统的一方”。不理解底层软件世界,就谈不上真正的数字世界智能。
四、有“大脑”没“小脑”:缺乏对时空与物质世界的直接感知
从认知功能上看,大语言模型有点像是人类的“大脑皮层”: 擅长做抽象、做类比、概括故事、复述规律——这正是语言和符号系统的强项。 但人类之所以能稳稳地走路、接住飞来的球、在复杂环境中瞬间做出反应,很大程度上依赖的是“小脑”和整个感知-运动系统对时空与物质世界的精细建模。 你不需要一句话告诉你“前面有台车”,眼睛和身体已经完成了预测和躲避; 小孩不会说话时,就已经能在房间里自由爬行、抓东西; 小动物没有人类的语言,却拥有极强的空间感和本能判断。
这说明一件事: 语言并不是表达时空关系最有效的符号系统,甚至可能是“更上层、更低效的壳”。 今天的大语言模型,几乎完全靠“语言”来推断一切: 这也是为什么李飞飞等人会强调“时空大模型 / 世界大模型”的重要性。真正理解世界,不是把更多文字喂给语言模型,而是要让模型直接面对视觉、动作、位置、速度、拓扑结构、物理约束这类原始信号。 从这个角度看,未来的“世界智能”很可能不以语言为主轴,语言只是其中一层“人机接口”,而不是智能的核心。
只盯着语言做大模型,本身就站在了一个过于狭窄的起点上。
五、主体—动机—关系:大模型缺失的“社会坐标系”
在真实的人类社会中,我们理解一件事,很少是“孤立看事实”,而是本能地套用一套社会坐标系: 换句话说,人类习惯用一种“主体—动机—关系”的视角理解系统: 这套抽象能力,让我们可以把一个企业、一个部门、一支项目组,当成一个“有意图的角色”,再去分析它在大环境中的位置与行为。 而大语言模型在看世界时,大多是从“文本片段的相似性”出发的: 这四个 W,看起来像是补充信息,实际上分别指向: Where:空间与场景的拓扑结构——这是在监管场景、商业竞争场景,还是内部权力场? Who:主体与组织的边界、角色划分与权力结构——谁说了算,谁是执行者,谁是受行动影响的? When:时间上的节奏与约束——是预算规划期还是考核冲刺期?
缺少这些结构化、稳定的“主体模型”,大模型就很难真正看懂: 于是你让它写制度、定 KPI、做战略,它可以模仿出一份格式完美、逻辑完整的文件,却往往只是把已有话术再排列组合一遍——“字都对”,但你会隐约觉得:它没看见人,也没看见组织,只看见了句子。
被抹平的过程与隐藏信息:大模型看到的是过滤后的世界
上面说的是“它缺了哪套坐标系”,更深一层的原因是:它看到的原始世界,本身就是被严重压缩和筛选过的“公开版本现实”。 当前主流大模型的训练数据,几乎都来自互联网与各类公开文本。问题在于,人类真正重要的活动和博弈,有大量是从未被完整记录、更别说公开发布的: 在科研领域,我们在论文里看到的,是一条逻辑完整、数据齐全的“阳光路径”。 但一篇论文背后,往往是几十甚至上百次失败实验、被否掉的假设、被拒绝的稿件和反复推翻的分析——这些都只躺在实验记录本、内部邮件和研究者的记忆里,极少进入公开语料。 在城市空间的演变里,人们看到的是最终落地的“新区规划图”、“地铁线路图”。 但在此之前,有过多少版路线比选、多少次听证会和争议、多少群体的利益协调,可能涉及几百个人、无数轮会议、反复修改的版本,这些多不会以完整原貌公开,只留下几句高度概括的“经充分论证”、“广泛征求意见”。 在资本市场上也是如此:投资者看到的,只是一场精心排练过的业绩发布会。 几张PPT、一份财报、一段“稳健、可持续”的口径。背后则是财务团队无数轮测算、管理层与投行/律所/审计师对披露边界反复博弈,以及IR团队彩排好的问答脚本。大模型能抓到的,只是这套对外统一口径,看不到那些被删掉的句子、被否决的版本和关起门来讨论的真实顾虑。一个上百亿的企业,对外公开的信息总和可能还不如一个每天直播的旅行家。
看起来更“贴近日常”的,是娱乐和内容消费场景: 而真正漫长、琐碎、尴尬、犹豫不决的过程,很少有人愿意完整公开,也难以形成规模化数据。 更关键的是,人类行为背后最真实的驱动力——也就是你提到的那些“没法或者不愿说出口的东西”: 这些内容,要么从未被书写,要么只零星存在于私密日记、心理咨询室或当事者内心独白里,自然难以成为大模型训练时的主菜。 结果就是: 模型学到的是“被允许说出口、被愿意记录下来的那一层理由”, 而不是真正驱动行动的那一层冲动、博弈和潜意识。
它看到的是: “我们基于长期战略考虑,决定进行组织优化”, 却看不到这背后是市场竞争受挫、预算压力、部门博弈与个体的取舍。 它学到的是: PPT 里的组织结构图——几层方框、几条线,权责边界似乎一目了然。 却看不到茶水间里的小范围沟通、项目群里的默契分工,以及那些凭借信任链条在“组织图之外”发挥作用的非正式网络。 当你请这样一个模型来分析组织、设计激励、预测行为,它给出的往往是基于“公开叙事”的理想化方案,而不是基于“隐藏过程”的冷静判断。
这就是为什么,很多管理建议、组织诊断、战略分析,看起来像咨询公司 PPT 的总结页,但一落到具体公司就会显得“悬空”:它没有踩在真实人性的泥土和复杂利益的水流里。
七、记忆是碎片化的:长上下文问题远没解决
从 GPT-4 到 Claude,再到一众“长上下文模型”,宣传里总有一句:支持 100K、200K 甚至百万级 token,“上百页文档一次看懂”。 但真正把它当“长期合作者”用过的人,大多有相反的体感:越往后聊越容易跑偏,越喂越多越抓不住重点。 本质原因不在于“窗口还不够大”,而在于:大语言模型根本没有一套像人类那样的记忆系统。现在所谓的“长上下文”,更多只是把“工作记忆”硬撑大,而不是补齐“长期记忆”和“记忆管理”。 对大模型来说,“记忆”主要就两块: 于是,长上下文看起来像是在“给记忆加容量”,但在结构上问题并没有变好: 信息一多,真正关键的那一点被淹没在海量背景里,“看了很多,却抓不住重点”; 在复杂业务任务中,前后步骤高度耦合,只要前面某个小环节理解错了一点,后面整条链路都会连锁跑偏; 多轮长对话之后,人物设定、结论和约定开始漂移——上文说过的话,它似乎“有印象”,却又抓不稳。
更关键的是,绝大多数大模型没有可靠、可控的“长期记忆”机制: 它不会像人一样,把一次重要经历抽象成稳定的观念和经验,挂到一条“人生时间线”上; 也没有类似海马体那样,把“某年某月某天的一次对话/一次翻车”打包成可回放的情节记忆; 更没有“这件事太痛必须记住”的价值打分系统,无法区分“无聊寒暄”和“关键决策”在记忆中的优先级。
结果就是那个熟悉的尴尬局面: 模型看上去“什么都知道”,但它对你的世界始终是“每次见面都是第一次”, 最多记得一点会话里的临时上下文,很难真正积累起与你相关的历史。
在企业级的复杂场景里,这意味着:它更像一个随叫随到、回答很快的顾问,而不是一个和你一起经历项目起落、越协作越默契的长期合伙人。 要跨过这道坎,未来的方向恐怕不是再去堆更大的窗口,而是在语言大模型之外,接上一整套真正的“记忆装置”——可索引的外部记忆、事件级时间线、价值打分与巩固机制,让它不再只是一个会说话的“语言局部”,而是有机会真正长出一点“自己的经历”。
尾声:看清边界,才能用好它
把这些“致命缺点”摆出来,并不是要否定大语言模型的价值。恰恰相反,正是因为它足够重要,我们才更有必要看清它不擅长什么。 综合上面几条,可以粗暴地做一个总结: 它是一个基于语言的、有损概率压缩器,不是精准的世界模拟器; 它在今天的大多数应用中,缺少真实环境的闭环反馈; 它看不清数字世界的底层,也摸不准物理世界的时空结构; 它对人类社会中的主体、动机与关系的理解,远没有看起来那么深刻; 它的记忆与上下文管理,在复杂任务面前依然脆弱。
所以,大语言模型也许会成为我们这个时代最重要的“语言壳层”:它让知识更易被提取、让工具更易被驱动、让复杂系统有了一个“说得清楚”的界面。但要把它当成“终极大脑”“世界操作系统”,则是把一层语言壳误当成了整个宇宙。 真正值得期待的未来,大概率是这样一种组合: 底层是能够直接感知和操作现实/数字世界的时空大模型、控制系统和专业引擎; 中间是一系列能与环境持续互动的Agent与仿真环境,承担决策、试错与优化; 顶部才是今天这样的语言大模型,负责把这些复杂的结构翻译成我们能理解的故事、计划和交互界面。
看清边界,不是为了失望,而是为了避免空想。
当我们不再幻想“大模型替代一切”,而是开始认真设计“它应该被嵌入在哪儿”,也许才是真正的智能时代开始的地方。 |