“关于知识库这块,你有什么能讲的吗?”我一脸懵逼,数据咋清洗,数据格式咋定的不是刚说完吗??🤔复盘了一下,感觉应该是想问下面这些
把长文档切成合适的语义段,既能保证上下文连贯,又不超出 token 限制。
用langchain.text_splitter中的RecursiveCharacterTextSplitter(递归+分隔符):
fromlangchain.text_splitterimportRecursiveCharacterTextSplitter
splitter = RecursiveCharacterTextSplitter(
chunk_size=500, chunk_overlap=100,
separators=["\n\n","\n","."," ",""]
)
chunks = splitter.split_text(your_text)
把文本片段转化为模型能理解的向量(embedding),进入语义空间。
text-embedding-ada-002 | |||
bge-base-zhbge-large-zh | |||
text2vec | |||
e5-mistral |
fromsentence_transformersimportSentenceTransformer
model = SentenceTransformer("bge-base-zh")
emb = model.encode("鼠标断连怎么解决")
🔥 记得用 BGE 模型要加 prompt:“为这个句子生成表示以用于检索相关文档:xxxx”
将 embedding 存入可快速近似搜索的数据库中,用于后续查询。
importfaiss
importnumpyasnp
index = faiss.IndexFlatIP(768) # 余弦相似度
index.add(np.array([vec1, vec2, vec3])) # vec 是 np.array 的向量
D, I = index.search(np.array([query_vec]), top_k)
提高召回的准度和覆盖率。
📌 混合召回核心是:关键词召回召不准 → 靠语义补;语义召回太泛 → 靠关键词兜底
关键词召回 top30 + 向量召回 top30 → 合并 → rerank top10提高最终召回片段的相关性排序,降低误召回风险。
bge-reranker-base | ||
Cohere Rerank | ||
cross-encoder/ms-marco |
score = reranker(query, [chunk1, chunk2, chunk3])
ranked = sorted(zip(score, chunks), reverse=True)
将检索到的内容+用户问题组织成 Prompt 喂给 LLM。
你是某品牌客服助手,以下是产品说明文档内容:
【知识片段】
1. 鼠标若断连,请检查电量或更换接收器
2. 鼠标灯不亮通常为电池电量低
用户提问:
鼠标今天怎么又断连了?
请基于上方知识内容回答。
CONTEXT_WINDOW = 3500控制拼接字数---,降低混淆保证系统在没有命中知识时,不答错,不胡说。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |