链载Ai

标题: 提升RAG应用性能:使用智谱AI的GLM-4和Embedding-3模型优化文档检索 [打印本页]

作者: 链载Ai    时间: 8 小时前
标题: 提升RAG应用性能:使用智谱AI的GLM-4和Embedding-3模型优化文档检索

上文提速 RAG 应用:用 DeepSeek API 替换本地 Ollama 模型,LlamaIndex 实战解析 我们介绍了如何通过 DeepSeek 的 API 调用 DeepSeek v2.5 模型 替换通过 Ollama 调用本地下载好的 Qwen2.5 模型。

这样做的目的是想通过 API 调用远程部署好的 LLM 给我们的 RAG 应用提提速。不然由于本地个人电脑计算资源的不足(我的电脑没有 GPU)会导致 RAG 应用运行缓慢。

在我们的 RAG 应用中分别使用了两个模型 ,一个是 embedding 模型,它的作用有这么几点:

  1. 文档嵌入(Document Embedding)







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5