把文档先“让LLM写摘要+打标签”,再用混合向量做检索,比直接扔原文进RAG,Top-10命中率从73%干到92%, latency 还更低。下面一起来具体分析:
| LLM自动生成 ①内容类型②技术实体③用户意图&可能提问 | ||
| 三通道融合 ①纯内容②TF-IDF加权③Prefix-Fusion(标签前缀) | ||
| Naive+TF-IDF加权 | 0.925 | ||
| Recursive+TF-IDF加权 | 0.825 | 0.807 |
✅先上Recursive+TF-IDF:精度最稳,82%起步
✅Hit率优先场景(如客服QA)改用Naive+Prefix-Fusion,直接冲92%
✅元数据Prompt模板固定输出JSON,方便后续换更小LLM降本
✅Cross-Encoder重排只在离线标注阶段用,线上仍走双Encoder,延迟可控
“让LLM先给文档写‘小抄’,再进RAG,企业知识库立刻少幻觉、多命中。”
| 欢迎光临 链载Ai (http://www.lianzai.com/) | Powered by Discuz! X3.5 |