链载Ai

标题: 全面解析LLM业务落地:RAG技术的创新应用、ReAct的智能化实践及基于业务场景的评估框架设计 [打印本页]

作者: 链载Ai    时间: 昨天 11:55
标题: 全面解析LLM业务落地:RAG技术的创新应用、ReAct的智能化实践及基于业务场景的评估框架设计

1. 如何让 LLM 更好的业务落地常见方法

1.1 LoRA 微调:(离线升级,时间和数据受限)

微调使我们能够将预先训练的 LLM(已经对语言有很强的理解)调整到特定任务,例如翻译语言、生成代码或编写创意内容。传统的微调方法在计算上可能很昂贵,并且需要大量数据。

LoRA 提供了一种创新的解决方案:它不是调整大型 LLM 的所有参数,而是专注于训练较小的 “适配器” 模块。这些模块学习如何调整 LLM 的输出以适应您的特定任务,而无需更改原始模型的参数。

1.2 RAG(检索增强生成)

更多内容参考:深度解读 RAG 技术发展历程:从基础 Naive RAG 到高级 Advanced,再到模块化 Modular RAG 的全面升级

RAG(Retrieval-Augmented Generation)是一种结合了信息检索(Retrieval)和文本生成(Generation)的混合模型。这种模型最初是为了解决传统的生成模型在处理复杂任务时可能会遗忘信息或生成不准确内容的问题。RAG 模型通过检索大量文档,提取相关信息来辅助生成过程,从而提高输出的准确性和相关性。

RAG(检索增强生成)使用附加信息来增强语言模型的生成能力。其工作流程涉及几个步骤:

此过程基于最相关的现有信息,确保生成的内容准确且相关。

以下是典型的 RAG 应用程序工作流程(来自 Avi Chawla):

由于附加文档可能非常大,因此步骤 1 还需要进行分割操作,将大文档分割成更小、更易于管理的部分

传统 RAG:使用平面线性数据结构来索引原始数据。当收到用户查询时,系统会查询存储的块以检索相关信息。每个查询都会发生此检索步骤,这可能是速度的瓶颈。

LightRAG:使用知识图谱来表示文本中实体和主题之间的关系。LightRAG 的基于图的索引方法使其能够理解复杂的数据关系,并使用双层检索范式来提供精确的答案和广泛的见解。LightRAG 比 GraphRAG 更快、更实惠,并且可以逐步更新图而无需重新生成它们。

GraphRAG(微软):使用知识图谱将结构化、上下文丰富的数据纳入检索过程。GraphRAG 将外部数据转换为计算机可读的图形结构,该结构由节点(信息)和边(关系)组成。GraphRAG 可以通过展示主题之间的关系来提供对上下文的更丰富理解。但是,使用新知识更新数据集需要重建整个图。它有几个缺点:

1.3 ReAct:

ReAct 是 “推理和行动” 的缩写,是一种突破性的方法,将推理(AI 的思维过程)与行动(AI 执行任务)交织在一起。与将这些过程分开处理的传统 AI 模型不同,ReAct 将它们集成到一个有凝聚力的工作流程中。这种集成确保 AI 采取的每项行动都由其推理决定,并且每项推理都可能导致有意义的行动。

ReAct 按照简单而强大的循环运行,该循环反映了人类解决问题的行为:思考、行动、观察和适应。

ReAct 是将当前知识注入 LLM 的绝佳方式。它也可以作为 RAG 的预步骤。通过利用 ReAct,系统可以从百度或谷歌等来源收集所有相关信息。之后,RAG 可以矢量化文档并将其添加到数据库以提供答案。

1.4 Prompt, 提示词 :

提示词(Prompt)是在与大模型交互过程中,为了引导大模型更准确地理解问题、生成更符合需求的输出而特意提供的特定词语、短语或指令。

大模型就如同一个庞大的知识宝库,但要准确开启这个宝库找到我们所需的珍宝,提示词就是关键钥匙。没有明确的提示词,大模型可能会像一艘在茫茫大海中失去方向的巨轮,虽然拥有巨大的能量,却不知该驶向何方,给出的答案也可能偏离我们的期望。

CoT Chain of thought 思维链

COT(思维链) 的核心理论在于引导大模型像人类一样进行逐步推理。通常,当我们面对一个问题时,会通过一系列的思考步骤来得出答案。COT 就是将这种思维方式引入到大模型的交互中。

它的作用就像是为大模型搭建了一座思维的桥梁。当我们提供一个问题时,大模型不再是直接给出一个模糊的答案,而是沿着思维链的路径,一步一步地进行分析和推理。这显着提高了答案的准确性和可解释性,并简化了答案不正确时的分析。

COT 的实现方式通常是在提示词中加入一些引导性的语句,如 “首先…… 然后…… 最后……” 或者 “第一步…… 第二步…… 第三步……” 等,让大模型按照这些步骤进行推理。这样不仅能让我们更好地理解大模型的思考过程,也能让大模型更加准确地回答问题。

Few-shot(少样本学习)

Few-shot learning(少样本学习)是一种让大模型在仅有少量样本的情况下也能进行有效学习和准确预测的方法。

从原理上看,大模型通常在大量数据上进行训练,以学习各种模式和规律。但在 Few-shot 场景下,大模型需要快速适应只有几个示例的新任务。这就好比一个经验丰富的侦探,平时通过处理大量案件积累了各种推理技巧和模式识别能力。当遇到一个新的、罕见类型的案件时,即使只有几个类似的少量样本,侦探也能凭借过去的经验和敏锐的洞察力,分析这些线索中的关键特征和模式,从而对新案件做出合理的推断。

2.RAG 常见问题

  1. 1

    RAG 解决了自然语言处理领域的哪些关键问题?







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5