链载Ai

标题: OpenAI 无需向量化的RAG新范例:探索大模型时代的高效知识问答与模型选择之道 [打印本页]

作者: 链载Ai    时间: 4 小时前
标题: OpenAI 无需向量化的RAG新范例:探索大模型时代的高效知识问答与模型选择之道


ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;margin: 0px 0px 10px;letter-spacing: 0.1em;white-space: pre-line;color: rgb(63, 63, 63);font-size: 15px;">在当今数字化的浪潮中,各类智能客服系统已成为我们日常生活中不可或缺的一部分。这些系统旨在帮助用户从海量文档中迅速找到所需信息并提供答案。在大多数情况下,检索增强生成(RAG)技术是实现这类系统的首选方案。传统RAG通常涉及复杂的向量化过程,然而,OpenAI最近分享了一个令人耳目一新的问答系统开发案例,它同样基于RAG,却完全无需向量化。这究竟是如何做到的?本文将深入探讨这一创新范例,并进一步引申至通用的大模型选择策略,助您在实践中构建更高效、更智能的AI系统。

ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 17px;font-weight: bold;margin: 40px 0px;width: fit-content;text-align: left;color: rgb(63, 63, 63);">RAG的核心理念与OpenAI的创新突破

ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;margin: 10px 0px;letter-spacing: 0.1em;white-space: pre-line;color: rgb(63, 63, 63);font-size: 15px;">简单来说,RAG技术旨在解决大语言模型(LLM)在面对特定领域知识时的“失忆”问题或长文本处理的成本问题。想象一下,您想构建一个产品智能客服,但大模型本身并不知道您公司的产品信息。如果直接将冗长的产品手册(可能长达1000页)全部喂给模型,不仅成本高昂,模型还可能“读了后面忘了前面”。RAG的出现正是为了解决这一痛点:它能从浩如烟海的文档中,精准地提取与用户问题最相关的内容(例如,1000页手册中可能只有三段话相关),然后将这部分精炼过的信息与用户问题一并发送给大模型,使其能够基于相关信息给出准确回答。这种“先抽取相关内容,再根据这些内容回答用户问题”的方式,就是RAG的精髓。

ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;margin: 10px 0px;letter-spacing: 0.1em;white-space: pre-line;color: rgb(63, 63, 63);font-size: 15px;">传统RAG多采用向量化技术进行内容匹配,即将文本转换为数字列表(向量),通过向量相似度来查找相关内容。但OpenAI的新方案则另辟蹊径,其核心在于模拟人类阅读和思考的模式,实现了零向量化的Agentic RAG。

ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 17px;font-weight: bold;margin: 40px 0px;width: fit-content;text-align: left;color: rgb(63, 63, 63);">OpenAI无向量化RAG的五大核心环节:以法律知识问答为例

ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;margin: 10px 0px;letter-spacing: 0.1em;white-space: pre-line;color: rgb(63, 63, 63);font-size: 15px;">OpenAI的这一范例是一个法律知识问答系统,它在回答用户问题时,主要遵循以下几个步骤:

    ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;vertical-align: baseline;white-space: normal;color: rgb(63, 63, 63);margin-bottom: 8px;" class="list-paddingleft-1">
  1. ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;list-style-position: outside;">

    ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-optical-sizing: inherit;font-size-adjust: inherit;font-kerning: inherit;font-feature-settings: inherit;font-variation-settings: inherit;vertical-align: baseline;margin: 10px 0px;">文件加载 (Document Loading): 系统首先会读取一份长达1000多页的PDF格式法律文件(例如《商标审判和上诉委员会程序手册,TBMP》)。它会从中提取文本内容,供后续使用。值得注意的是,虽然原始文件有1194页,包含约93万个Token,但考虑到GPT-4.1-mini模型上下文窗口大小为100万个Token,为了避免超出限制导致模型遗忘前面内容,该系统会策略性地只读取前920页内容,这部分内容刚好在模型上下文窗口可接受范围内。

  2. ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;list-style-position: outside;">

    内容切割与挑选(层次化导航) (Content Chunking & Selection - Hierarchical Navigation): 这是整个流程中最具创新性的环节,模拟了人类“从粗到细”的阅读方式。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5