当我们谈论基于大型语言模型(LLM)的AI Agent时,总会感到一丝兴奋,仿佛一个全能的数字助手即将降临。但很快,这股兴奋就会被现实的骨感所取代。为什么这些看似强大的Agent,在实际任务中却显得如此笨拙,难以真正派上用场呢?
我的看法是,我们可以把完成一项任务所需的能力,大致拆分成几个层面,就像剥洋葱一样:
简单来说,知识和经验是“想”的层面,而动作和技艺则是“做”的层面。想法和行动,两者虽紧密相连,却又泾渭分明。
现在,我们把AI Agent套进去看看:
问题就出在这里了:经验层和技艺层,能否仅仅通过约束或提炼知识层和动作层来获得?换句话说,AI Agent的“后者”(经验和技艺)真的是“前者”(知识和动作)的子集吗?
人类的厉害之处在于,我们的经验会慢慢沉淀为知识,而那些炉火纯青的技艺,更是我们赖以生存的“独门绝活”。
但AI Agent呢?它似乎只能完成那些“经验”和“技艺”需求与“知识”和“动作”本身能力相差不大的任务。也就是说,它能做的,基本都是LLM本身就“会”的那些事儿。因为它学到的那些“经验”(存在知识库里),那些“技艺”(体现在函数调用上),似乎无法真正地“沉积”下来,形成一种内在的、动态的、可持续的学习机制。
我们现实世界中,绝大多数有用的任务,都包含了大量的领域专有知识和难以量化的实践经验。这就像让一个百科全书式的学者去当一个经验丰富的手术医生,光有知识是不够的。这也就解释了为什么现在的AI Agent,多半只能在一些相对“通用”的场景下小试牛刀。
所以,如果我们要让AI Agent真正变得“实用”,它就不能只是一个静态的知识库加上函数调用器。它必须在模型层面,具备动态的学习能力。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |