向量匹配原理本质上是:
把“对象 / 文本 / 图片 / 行为”等转成向量(一串数字),再用数学方法衡量向量之间的相似度,从而判断它们“有多像”。
下面我从 直觉 → 数学 → 工程实现 → 应用场景等多层次给大家系统性的讲清楚。
“LangChain可以构建智能体”
会被编码成类似:
[0.12, -0.33, 0.89, ..., 0.07] (768/1536/3072 维)
这串数字在高维空间中的一个点,代表这句话的语义。
比较两个向量在空间中是否“靠得近”
近 → 语义相似
远 → 语义不相关
例如:
地图上两个地点距离越近,越相似(比如同一个商圈)
判断两个向量方向是否一致(不关心长度)
结果范围:[-1, 1]
越接近 1 → 越相似
向量搜索里最常见 ⭐
直觉:
两句话是否“在说同一件事”
越小 → 越相似
更关心“数值差距”
常用于图像、物理空间
不做归一化
向量长度会影响结果
某些 ANN 引擎(如 Faiss)内部优化使用
文本↓Embedding模型↓向量(高维)↓存入向量数据库↓相似度计算↓Top-K 结果
步骤 1:向量化
query_vec = embed("如何使用 DeepAgents")doc_vec = embed("LangChain DeepAgents 使用指南")
步骤 2:计算相似度
cos_sim(query_vec, doc_vec) = 0.91
→ 判定为高度相关
Embedding模型通过大量数据学习:
相似语义 → 向量更近
不同语义 → 向量更远
例如训练目标:
“猫” 接近 “小猫”
“数据库” 接近 “SQL”
“吃饭” 远离 “微积分”
每一维代表一个“隐含语义特征”
维度越高,语义表达越精细
LLM embedding 通常:768 / 1536 / 3072 维
解决什么问题
关键词搜不到
同义词、表达方式不同
向量匹配怎么用
查询 → 向量
文档 → 向量
Top-K相似度检索
典型场景
企业文档搜索
技术文档 / API文档
知识库搜索
👉 “不是找词一样的,而是找意思一样的”
本质
问题向量 vs 知识片段向量
常见形态
FAQ
客服机器人
内部技术支持
工程形态
Question → Embedding → Vector Search → LLM 生成答案匹配对象
用户兴趣向量
内容向量
典型应用
资讯流
视频推荐
商品推荐
👉 “你看过的内容,决定你下一条看到什么”
4️⃣ 用户画像 & 相似用户发现
用户行为 → 向量
找相似用户群体
用于精准营销、A/B测试
5️⃣ RAG(检索增强生成)
为什么必须用向量匹配
LLM无法存私有化数据和实时的事件
需要外部知识支撑
典型流程
用户问题→ 向量化→ 向量数据库检索→ Top-K 文档→ LLM 生成回答
应用
企业AI助手
内部知识专家
行业智能问答
⭐ 这是目前向量匹配最重要的应用之一
❌ 向量匹配 = 精准判断
✅ 向量匹配 = 概率相关性
所以工程上一定要:
Top-K + rerank(重排序=在“已经筛出来的候选结果里,用更强的模型重新排一次顺序”)
阈值控制
与规则 / LLM推理结合
向量匹配 = 把“理解”变成“几何距离”
或者
Embedding把语义映射到空间,相似度函数负责在空间中“找最近的”。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |