我们对三种相关方法进行了实验,这些方法可以与任何黑箱大型语言模型(LLM)一起使用:(1)思维链(Chain-of-Thought,CoT)提示,(2)反应(ReAct),它在生成思维和从文本知识库(如维基百科)中搜索和检索之间进行迭代,以及(3)前瞻性主动检索(Forward Looking Active Retrieval,FLARe),它在生成思维和从知识库中检索以纠正不准确性之间进行迭代。
遍历树的速度比简单的检索替代方案慢。改善价值函数将通过避免沿树探索的错误路径来减少 LLM 和 KG API 调用的数量。可以实施其他工程解决方案,例如托管图形服务器,以加速 LLM 和 KG 的访问。在令牌成本方面,KG 的文本表示相比于许多使用非结构化知识库的检索方法是令牌高效的,因为后者往往会最大化 LLM 上下文窗口的使用。然而,与非检索基线相比,令牌使用成本显著增加。
可以回答的 KG 问题类型受到上下文窗口、搜索深度和 LLM 推理能力的限制。例如,一个非常大的聚合(‘有多少座山的海拔超过 3500 米?’)将需要比 LLM 上下文所能容纳的更多实体。未来的工作可以考虑向 ASM 添加其他操作,例如聚合,这可以将本地 KG 提炼成更相关的信息。