链载Ai

标题: 腾讯基于 RAG 和 Agent 技术的混元大模型业务落地实践 [打印本页]

作者: 链载Ai    时间: 6 小时前
标题: 腾讯基于 RAG 和 Agent 技术的混元大模型业务落地实践
导读在本篇文章中,我们将深入探讨腾讯大语言模型在多个业务场景中的应用,特别是如何通过前沿技术提升模型的智能化与用户体验。首先介绍腾讯大模型的广泛应用场景,如内容生成、智能客服和角色扮演等,并详细解析 RAG(Retrieval-Augmented Generation)技术及其在实际业务中的创新应用,特别是在文档生成和问答系统中的势。此外,文章还将探讨 GraphRAG 在角色扮演场景中的应用,如何结合知识图谱优化复杂的知识推理。最后,将深入分析 Agent 技术的原理与应用,展示其在目标驱动任务中的强大推理与执行能力。通过这些技术的结合与实践,腾讯正在推动大语言模型在各类复杂场景中的智能化演变,提供更加精准且高效的解决方案。

主要内容包括以下几大部分:


1.腾讯大语言模型应用场景
2.RAG 技术原理及应用实践
3.GraphRAG 在角色扮演场景中的应用
4.Agent 技术原理和应用

5.问答环节


01

腾讯大语言模型应用场景

1.核心应用场景



腾讯大模型技术的应用覆盖了多个业务场景,包括微信生态、社交内容、视频新闻、办公文档、游戏等。通过大模型,腾讯推动了业务场景的智能化与高效化应用。


核心业务场景包括:


2. 大模型应用技术




腾讯在大模型应用中主要使用以下三种技术方式:


(1)SFT(Supervised Fine-Tuning)
(2)RAG(Retrieval-Advanced Generation)
(3)Agent(智能体)

3.混元一站式大模型应用解决方案



腾讯通过混元大模型平台提供一整套从基础模型管理到复杂应用开发的支持体系,具体包括:


(1)基础模型管理与开发支持


(2)Agent 平台与扩展能力


功能支持
应用能力
02


RAG技术原理及优化实践




在大模型技术快速发展的背景下,其直接应用于业务场景的过程中面临一些难以忽视的问题,如:


为应对上述挑战,RAG(Retrieval-Augmented Generation)技术通过结合检索与生成机制,为模型注入动态更新的外部知识,显著提高模型在复杂场景中的回答准确性与知识实时性。后文中将从技术原理、关键环节及实际应用出发,深入探讨 RAG 技术的优化方案和应用实践。


RAG 技术主要包含两个核心部分:


数据准备
知识召回和生成增强

1.RAG技术原理



整体链路与原则如下:


知识库与生成增强:


2.RAG应用关键挑战




RAG 在实际应用中会面临诸多挑战。首先,原始文档格式多种多样,内容提取面临挑战;第二,如何对不同格式的文档进行切分,并保证语义完整性也是需要解决的一大问题;第三,需要考虑如何构建知识库;第四,需要保证文档召回率,召回的相关性,并在必要时融合多种召回技术;最后是如何让模型更好地生成内容。


(1)文档解析



技术手段:利用端到端模型对 PDF、Office 等文档进行视觉化编码和特征提取。


优化点


(2)文档切分



提供多种切分方式适配不同业务场景:


实际挑战


(3)离线知识扩充技术



知识库扩充方案:
成果:结合论文中提出的前沿方法,实现高效、精细化的知识库构建。
(4)索引召回



向量化技术:支持两种召回方式:


(5)多路召回



融合多种来源的召回结果,包括:Vector DB(向量数据库)、ES(Elasticsearch),以及外部搜索引擎与 API。通过 Reranking 模型对召回结果进行重排和过滤,确保结果准确性和多样性。


(6)知识生成



Prompt 工程


SFT(微调优化)


03


GraphRAG在角色扮演场景中的应用



1.RAG局限




在角色扮演场景中,RAG 存在如下一些局限性:


为了解决这些问题,我们引入了 GraphRAG 技术。


2.GraphRAG:基于图的检索增强方法




GraphRAG(Graph-based Retrieval-Augmented Generation)技术通过结合知识图谱构建与生成技术,为复杂知识场景中的问题解答提供了新的解决方案,特别是在长文本处理、关系推理和上下文理解等方面具有显著优势。


GraphRAG 技术通过知识图谱的构建和使用,实现了从知识提取到推理生成的全链路优化。其核心流程包括三部分:


(1)索引构建(Indexing)
(2)检索(Retrieval)
(3)生成(Generation)

3.基于混元LLM构建图检索增强框架




混元 LLM 构建 GraphRAG 主要包括离线和在线两部分。



主要步骤



4.角色扮演场景介绍




在角色扮演中,GraphRAG 技术被用于以下场景:


04


Agent技术原理和应用



1.Agent应用场景

2. Agent技术原理




核心功能:Agent 技术结合了推理(Reasoning)和行动(Action),模型在执行任务前进行推理,并根据推理结果执行相应的行动。


3.Agent在混元中的实现




角色定义


4. Agent应用案例




业务背景:腾讯云通过代理技术支持多个合作伙伴,帮助其提升用户体验和工作效率。通过与外部工具结合,平台能够在复杂任务中灵活调度和执行,自动化处理各类任务。


技术优势


5.总结

05


问答环节


Q1:在生成 chunk 之后,基于 chunk 生成 QA 对,在 embedding 时是将 QA 对整个做 embedding 处理,还是做缓存机制?
A1:有两种格式的 embedding:一种是将问题 (Question) 和回答(Answer) 分开处理,其中问题部分单独 embedding,回答部分作为附带信息在召回时使用;另一种是做全文索引,这时没有问题部分,只有文档索引。
Q2:能否介绍一下中文语义切分的具体方法?


A2:语义切分通过训练类似于 BERT 的模型,判断文章在不同 token 之间如何切分,保证切分后的文章语义的完整性,并且考虑上下文的连续性以保证语义流畅。


Q3:在问答系统中,如何评估回答的有效性?


A3:我们提供了评估框架和指标,如回答的正确性 (correctness)、召回文档的相关性 (relevance) 等。整个过程具有透明性,业务方可以通过工具评估和调试,包括输入和输出的测试,确保模型回答符合预期。


Q4:什么情况下判断模型需要进行 SFT(监督微调),而 RAG(检索增强生成)是否能满足需求?


A4:判断标准不明确,但一般来说,如果业务需要基于特定领域知识(如代码或云知识)构建模型,或者处理复杂的任务结构,可能需要进行 SFT。如果模型的指令遵循不够好,也可能需要转向 SFT。


Q5:SFT 是否能改善模型在特定文本风格上的表现,特别是聊天机器人的风格(如 WhatsApp 风格)?


A5:通过 SFT,模型可以很好地学习特定格式或风格的文本。只要提供足够高质量的样本,模型能够生成符合期望的风格。例如,在 prompt 中提供风格示例可以帮助模型更好地理解并应用风格。


Q6:精调后的 SFT 模型是否仍然适用于通用的 Agent LLM?


A6:SFT 后的模型依然可以作为 Agent 的 LLM,但如果将其应用到新的业务场景中,可能效果会有所下降,尤其是如果领域知识差异较大时。
Q7:翻译后的 SFT 模型是否会影响其 PR(推理能力)?


A7:经过 SFT 微调后,模型的通用性可能会下降,尤其是在训练数据不平衡的情况下。例如,如果增加了过多不同类型的数据,可能会影响模型在某些任务上的表现,导致效果回退。







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5