链载Ai

标题: 理解 RAG 第二部分:经典 RAG 的工作原理 [打印本页]

作者: 链载Ai    时间: 2 小时前
标题: 理解 RAG 第二部分:经典 RAG 的工作原理

在本系列的第一篇文章中,我们介绍了检索增强生成 (RAG) ,并解释了扩展传统大型语言模型 (LLM)功能的必要性。我们还简要概述了 RAG 的核心思想:从外部知识库中检索上下文相关的信息,以确保 LLM 生成准确且最新的信息,而不会产生幻觉,也无需不断地重新训练模型。

本系列的第二篇文章将揭秘传统 RAG 系统运行的机制。尽管如今随着人工智能的迅猛发展,各种增强版和更复杂的 RAG 版本几乎每天都在涌现,但要理解最新的 RAG 方法,第一步是理解经典的 RAG 工作流程。

经典 RAG 工作流程

Retrieval-Augmented Generation (RAG) 系统是一种创新的架构,它结合了传统的语言模型(LM)和信息检索(IR)技术的优点,以提供更加精准和上下文相关的文本生成能力。下面是对 RAG 系统三个关键组件的详细扩展说明:

1. 预训练的语言模型(LLM)

预训练的语言模型是 RAG 系统的基础,它通常基于深度学习框架,如Transformer架构。这些模型通过在大量的未标注文本文档上进行自我监督学习来获取知识。这些数据集可能包含从数百万到数十亿的文档,覆盖广泛的主题和领域。例如,GPT、BERT等著名模型都是通过这种方式训练得到的。它们能够理解语言的复杂性,包括语法结构、语义关系以及不同文本之间的联系。这使得它们可以执行各种任务,如文本生成、问答、摘要等。

2. 向量数据库/知识库

向量数据库,也称为知识库,在RAG系统中扮演着至关重要的角色。其主要功能是存储经过处理的文本文档,但与传统数据库不同的是,这里的文档是以向量形式存储的。向量化过程涉及到将文本转换成数值表示,即所谓的嵌入向量。每个单词、句子或整个文档都可以被转化为一个高维空间中的点,其中每个维度代表原始文本的一个特征。这种表示方式能够捕捉文本的语义信息,使得相似含义的文本片段在向量空间中彼此接近。

这种方法有几个显著的优势:

3. 查询或提示

用户通过自然语言提出查询或提示,这是与RAG系统交互的主要方式。当接收到用户的查询时,系统首先将其转化为向量形式,然后使用上述提到的向量数据库来搜索相关内容。这个过程不仅依赖于语言模型的理解能力,还需要有效地利用向量数据库中的信息。一旦找到了相关的文档或段落,它们就会被用作额外的知识来源,帮助调整或补充由语言模型生成的回答,确保最终输出既准确又具有上下文相关性。

总之,RAG系统通过整合语言模型的强大表达能力和向量数据库的高效检索机制,实现了对复杂查询的更深入理解和响应。这种架构特别适用于那些需要高度定制化和背景感知的应用场景,比如专业领域的问答系统、个性化推荐引擎等。

基本 RAG 系统的总体方案
当用户用自然语言向配备 RAG(Retrieval-Augmented Generation)引擎的 LLM 助手提出问题时,整个过程可以分为以下三个关键阶段:

    1. 检索(Retrieval)

    在这个阶段,RAG 系统中的一个核心组件——检索器(Retriever)——开始工作。检索器的任务是从矢量数据库中查找与用户查询相关的文档或片段。


    2. 增强(Augmentation)

    在检索到相关文档后,RAG 系统会将这些文档的内容与用户的原始查询结合起来,形成一个增强版的查询


    3. 生成(Generation)

    最后,增强后的查询被传递给 LLM(也称为生成器),由它生成最终的答案。

    实际应用场景示例

    假设用户提问:“为什么天空是蓝色的?”

    1. 检索






    欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5