在 AI 驱动的企业知识管理与自动化运维领域,RAG(Retrieval-Augmented Generation)模式已经成为提升大模型回答准确度和上下文理解能力的关键方案。 传统大模型(LLM)仅依赖训练语料回答问题,而 RAG 在推理前引入外部知识检索,可显著减少幻觉(Hallucination),提升对领域专属知识的掌握能力。
在向量数据库的选择上,pgvector是 PostgreSQL 的一个扩展,具备:
对于企业级 DevOps、ITSM、知识库、FinOps 等系统,pgvector 能帮助我们快速构建一套可控、可扩展的 RAG 数据层。
一个典型的pgvector + RAG架构如下:
[用户问题]
↓
[向量化模型 (Embedding Model)]
↓
[pgvector 检索相似文档]
↓
[上下文拼接 + 用户问题]
↓
[LLM 推理]
↓
[回答输出]
在企业落地中,我们一般分三大模块:
数据准备
检索增强
生成回答
CREATEEXTENSIONIFNOTEXISTSvector;
CREATETABLEdocuments (
idbigserial PRIMARYKEY,
contenttext,
embedding vector(1536),-- 对应 OpenAI text-embedding-ada-002
metadata jsonb -- 存储文件名、来源、标签等
);
-- 创建 IVFFlat 索引(L2 距离)
CREATEINDEXONdocumentsUSINGivfflat (embedding vector_l2_ops)WITH(lists =100);
ANALYZEdocuments;
embedding vector(1536)的维度需和你使用的向量模型一致
go get github.com/jackc/pgx/v5
go get github.com/sashabaranov/go-openai
packagemain
import(
"context"
"encoding/json"
"fmt"
"log"
"github.com/jackc/pgx/v5"
openai"github.com/sashabaranov/go-openai"
)
funcmain(){
ctx := context.Background()
conn, err := pgx.Connect(ctx,"postgres://postgres
localhost:5432/testdb?sslmode=disable")
iferr !=nil{
log.Fatal(err)
}
deferconn.Close(ctx)
client := openai.NewClient("YOUR_OPENAI_API_KEY")
text :="RAG 是一种结合检索和生成的技术..."
resp, err := client.CreateEmbeddings(ctx, openai.EmbeddingRequest{
Input: []string{text},
Model: openai.AdaEmbeddingV2,
})
iferr !=nil{
log.Fatal(err)
}
vec := resp.Data[0].Embedding
meta, _ := json.Marshal(map[string]string{"source":"技术白皮书"})
_, err = conn.Exec(ctx,
"INSERT INTO documents (content, embedding, metadata) VALUES ($1, $2, $3)",
text,
fmt.Sprintf("[%s]", floatArrayToString(vec)),
meta,
)
iferr !=nil{
log.Fatal(err)
}
fmt.Println("✅ 文档插入完成")
}
funcfloatArrayToString(arr []float32)string{
s :=""
fori, v :=rangearr {
ifi >0{
s +=","
}
s += fmt.Sprintf("%f", v)
}
returns
}
SELECTid,content, embedding <-> $1ASdistance
FROMdocuments
ORDERBYembedding <-> $1
LIMIT3;
<->表示 L2 距离,也可以用<#>(余弦距离)。
query :="什么是 RAG 技术?"
qResp, _ := client.CreateEmbeddings(ctx, openai.EmbeddingRequest{
Input: []string{query},
Model: openai.AdaEmbeddingV2,
})
qVec := fmt.Sprintf("[%s]", floatArrayToString(qResp.Data[0].Embedding))
rows, _ := conn.Query(ctx,
"SELECT content FROM documents ORDER BY embedding <-> $1 LIMIT 3", qVec)
varcontextTextstring
forrows.Next() {
varcontentstring
rows.Scan(&content)
contextText += content +"\n"
}
prompt := fmt.Sprintf("已知信息:\n%s\n\n问题:%s\n请基于已知信息回答,并引用来源。", contextText, query)
ans, _ := client.CreateChatCompletion(ctx, openai.ChatCompletionRequest{
Model: openai.GPT4o,
Messages: []openai.ChatCompletionMessage{
{Role:"user", Content: prompt},
},
})
fmt.Println("回答:", ans.Choices[0].Message.Content)
分块策略
索引参数调优
lists越大,召回率高但插入变慢批量写入
COPY或批量事务插入向量混合检索(Hybrid Search)
分库分表
ITSM 智能工单
企业知识库
DevOps 日志分析
pgvector 让RAG 系统的数据层落地成本极低,在企业内可以直接复用现有 PostgreSQL 基础设施,享受事务、安全、备份等优势。 结合 OpenAI Embedding API 或本地向量化模型(如 bge、Instructor XL),可以快速搭建高可用、可扩展的企业知识增强问答系统。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |