链载Ai

标题: 为AI奠定知识根基:为什么每个项目都需要知识图谱 [打印本页]

作者: 链载Ai    时间: 前天 14:03
标题: 为AI奠定知识根基:为什么每个项目都需要知识图谱

当律师遇上幻觉AI

2023年,美国联邦法庭上演了一幕令人震惊的场景。从业数十年的律师史蒂文·施瓦茨提交了一份法律简报,其中引用了六个支持其客户立场的案例。但当法官询问其中一个案件时,真相浮出水面——所有这些案例都是AI凭空编造的。

施瓦茨事后承认,他以为ChatGPT是“一个超级搜索引擎”,完全没有意识到它会产生虚假内容。这个代价高昂的误解不仅让他面临处罚,更揭示了当前AI应用中的一个根本性问题:大型语言模型(LLM)在没有坚实基础的情况下,无法胜任关键领域的专业工作。

ingFang SC";font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;letter-spacing: normal;orphans: 2;text-align: start;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">问题出在哪里?

ingFang SC";font-size: medium;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: normal;orphans: 2;text-align: start;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">施瓦茨案暴露了人们对大语言模型能力边界的根本性误解。询问ChatGPT“泰姬陵是什么”与“哪些法律先例支持我的当事人在航空伤害案中的主张”,这两者之间存在天壤之别。

ingFang SC";font-size: medium;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: normal;orphans: 2;text-align: start;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">前者属于常识查询,所需信息广泛可得且相对稳定;后者则需要获取特定、权威且不断演进的法律判例体系——这套体系历经数百年法理积淀,对精准度要求极高,每个引证都必须可验证。

ingFang SC";font-size: medium;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: normal;orphans: 2;text-align: start;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">大语言模型会“幻觉”(生成虚假信息)早已不是新闻,业界也付出了巨大努力来缓解这一问题。人类反馈强化学习(RLHF)、优化训练数据筛选、置信度评分等技术均发挥了一定作用,但场景的影响至关重要。大语言模型在回答通用问题时可能表现出色,但若面对需要权威来源支撑的特定领域查询,就可能一败涂地。

ingFang SC";font-size: medium;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: normal;orphans: 2;text-align: start;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">检索增强生成(RAG)方法——将文档拆分后按需检索相关片段——可部分解决这一问题。当有明确文本内容且需要基于该内容的具体答案时,RAG效果尚可。但如果知识库是多年积累的实践成果(如法律先例、医疗规程、财务法规、工程标准),简单的片段式检索无法满足所需的精准度和语境理解。你不仅需要知道某个案例的具体内容,还需了解它与其他案例的关联、适用场景、管辖范围,以及后续判决是否改变了其效力。

ingFang SC";font-size: medium;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: normal;orphans: 2;text-align: start;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">然而,幻觉问题和检索局限只是冰山一角,更深层的是架构性挑战:

ingFang SC";font-size: medium;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: normal;orphans: 2;text-align: start;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">这些并非次要的技术问题,而是决定AI项目成败的架构性缺陷。据高德纳(Gartner)预测,到2027年,超过40%的智能体AI项目将因领域知识对齐不足和投资回报率低下而被取消。核心原因始终如一:企业在部署强大的大语言模型技术时,缺乏使其可信所需的知识基础设施。

ingFang SC";font-size: medium;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: normal;orphans: 2;text-align: start;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">施瓦茨案清晰地表明:除非能适当获取真实、一致、可验证的数据,否则大语言模型本身无法作为关键应用场景下可靠的问答工具。这没有捷径可走——仅通过RAG向大语言模型投喂更多文档,或寄望于更好的提示词工程来弥补,都回避了根本问题。

ingFang SC";font-size: medium;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: normal;orphans: 2;text-align: start;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">知识必须以可管理、实时更新、妥善维护的方式组织,更关键的是,其结构需能支持应用所需的各类推理。真正的问题不在于大语言模型是否足够强大,而在于知识应具备怎样的结构,以及如何围绕该结构建立有效的构建、维护和访问流程。

这正是知识图谱的用武之地。

什么是知识图谱?

知识图谱远不止是一个数据库。正如我们在《知识图谱与大语言模型实战》中所定义的:

知识图谱是一种不断演进的图数据结构,由一组类型化实体、它们的属性以及有意义的命名关系构成。它针对特定领域构建,整合结构化和非结构化数据,为人类和机器打造可用的知识体系。

因此,知识图谱建立在四大支柱之上:

至关重要的是,知识图谱中的知识具有可审计性和可解释性——用户可以精确追溯信息的来源,并对照权威渠道进行验证。

智能顾问系统vs自主系统

在探讨如何结合这些技术之前,我们需要明确智能系统部署的一个关键区别:并非所有智能系统都功能相同。

智能自主系统能够独立行动,代表用户做出决策并执行操作,只需极少人工干预——例如必须实时运行且无需人类介入的自动驾驶汽车。

相比之下,智能顾问系统(IAS)旨在支持而非取代人类判断。正如我们在《知识图谱与大语言模型实战》中所定义的:

智能顾问系统的作用是提供信息和建议,核心特征包括决策支持、语境感知和用户交互。这些系统设计为易于交互,允许用户探索选项、提出问题并获得详细解释,以辅助其决策过程。

对于法律研究、医疗诊断、财务分析、合规监控等关键应用场景,增强而非替代人类专业知识的顾问系统不仅更为可取,更是必不可少。其架构必须强化把关责任,而非绕过它。

混合架构:大语言模型+知识图谱

当我们将知识图谱与大语言模型结合,就能创造出整体大于部分之和的系统:

知识图谱提供基础支撑:

大语言模型提供交互接口:

试想一下,这种架构本可以如何避免施瓦茨的灾难:

  1. 大语言模型处理自然语言查询;
  2. 向知识图谱查询带有真实引证和来源的已验证信息;
  3. 提供带语境的结果:“找到12个经权威数据库引证验证的案例”;
  4. 提供指向原始来源的验证链接;
  5. 标记不确定性:“未找到完全匹配该模式的案例,建议考虑以下替代选项”。

最关键的是,当被问及“这个案例是否真实”时,系统会回应:“该案例引证无法在权威数据库中验证,状态:未验证。”

全面的价值主张

行业领先企业的研究一致表明,混合架构能够解决导致AI项目失败的核心挑战:

构建值得信赖的AI系统

施瓦茨案的法官指出:“技术进步司空见惯,使用可靠的人工智能工具提供协助本身并无不当之处”,但同时强调“现有规则要求律师承担把关责任,确保其提交文件的准确性”。

这一原则具有普适性:每个部署AI的专业人士都肩负着把关责任。问题在于,你的AI系统架构是支持还是削弱了这种责任。

关键应用场景中AI的未来——横跨所有行业——取决于构建将知识图谱的结构化知识与可解释性,与大语言模型的自然语言理解和模式识别能力相结合的智能顾问系统。这并非要在不同技术之间做出选择,而是要认识到:仅靠大语言模型无法构成可信AI所需的基础,而知识图谱恰好提供了这一基础。

当企业在没有这种基础支撑的情况下部署大语言模型,项目注定失败——并非因为技术不够强大,而是因为缺乏根基的强大是不可靠的。而如果方法得当,结合互补长短的技术,我们就能创造出真正增强人类智能的系统。







欢迎光临 链载Ai (http://www.lianzai.com/) Powered by Discuz! X3.5