在人工智能的浪潮中,我们似乎瞥见了未来的曙光。华盛顿大学的Chirag Shah和微软研究院的Ryen W. White在2024年12月19日发表的论文《Agents Are Not Enough[1]》却如一盆冷水,浇灭了过度的乐观。他们尖锐地指出:仅仅依靠AI代理(Agent)不足以构建真正强大的AI系统,我们需要重新思考整个AI生态系统。这篇论文,犹如AI领域的“路标”,指引我们重新审视多Agent系统——这一被寄予厚望的技术路径。
更令人头疼的是,不同AI代理的目标可能相互冲突。例如,在智能家居系统中,一个AI负责节能,不断降低空调温度;另一个AI则负责保持舒适,不断提高温度。这种目标冲突不仅浪费资源,还可能导致系统瘫痪。正如一篇发表在《National Library of Medicine》上的文章所指出的[5],智能家居系统中的冲突行为不仅影响用户体验,还可能增加能源消耗。此为内耗之三。
这种情况很容易导致“公地悲剧”。“公地”指的是多Agent系统中的共享资源,例如计算资源、通信带宽、共享数据库等等。每个AI代理都倾向于最大化自身的利益,过度使用这些共享资源,最终导致资源的枯竭和系统性能的下降。正如哈丁在《The Tragedy of the Commons》一文中所言,当所有牧民都将尽可能多的牲畜放到公共牧场上时,这个牧场最终会因过度放牧而被摧毁。类似地,在多Agent系统中,如果没有适当的激励机制或监管框架,代理可能会过度使用共享资源,最终导致系统性能下降。此为内耗之四。
更令人担忧的是,人类的认知偏差很可能会被投射到AI系统中。我们在设计和训练这些AI时,无意中可能会将自己的偏见和局限性编码进去。例如,如果用于训练AI代理的数据集本身就存在偏见,比如对某个特定群体的数据采样不足,那么训练出来的AI代理就可能表现出类似的偏见。又或者,在设计AI代理的目标函数时,如果工程师没有充分考虑到所有可能的边缘情况,就可能导致AI代理在某些情况下做出不公平或不合理的决策。这就像是在AI世界中复制了人类社会的弊端,而不是创造一个更加公平和高效的系统。《Proceedings of the 1995 1st International Conference on Multi-Agent Systems》中的一篇论文[6]指出,人类认知偏差可能通过数据收集、模型设计和性能评估等多个环节影响AI系统的设计和表现。这些挑战不仅涉及技术层面,还包括了社会和伦理层面的考虑,凸显了多Agent系统的复杂性和多面性。此为内耗之五。
Shah和White进一步指出,为了实现这种新型的AI生态系统,信任机制的建立至关重要。具体来说,可以从两个方面入手:基于行为的评估和声誉系统。基于行为的评估是指通过持续监控Agent的行为,评估其是否遵守规则、是否能够可靠地完成任务等。例如,一个负责文件传输的Agent,如果在过去的任务中始终能够准确、及时地完成文件传输,那么它的信用评分就会比较高。 声誉系统则是借鉴了人类社会中的声誉机制,允许Agent之间相互评价,并根据评价结果更新彼此的信用评分。例如,一个Agent可以根据与其他Agent的交互经验,给对方打出好评或差评,这些评价会被纳入到对方的信用评分中。根据 The MIT Press 的一篇关于信任和声誉机制的文章[10],这种机制有助于在去中心化的环境中建立和维护Agent之间的信任关系。
除了上述的Sims、Assistants和信任机制,这个新生态系统还包含以下几个关键组成部分:
分层架构:将AI系统从“扁平化”转向“层级化”,引入类似人类组织的管理结构。高层AI负责全局决策,低层AI专注于具体任务执行。这种架构的优势在于能够平衡中央控制和本地自主性,同时提供明确的通信和责任线。根据 IBM 的一篇关于多Agent系统的文章[11],这种方法有望提高系统的整体协调性和效率。
虚拟助手:打造能够理解上下文、预测需求的智能伙伴,作为人机交互的界面。这些虚拟助手能够在人类和AI系统之间搭建起更自然、更高效的沟通桥梁。根据《The ultimate guide to AI personalized assistants in 2025[13]》的预测,到 2025 年,虚拟助手将能够提供更强的个性化、多模态交互、情感智能等功能。