链载Ai

标题: 值得期待!DB-GPT v0.5.6 版本发布 [打印本页]

作者: 链载Ai    时间: 2025-12-2 09:51
标题: 值得期待!DB-GPT v0.5.6 版本发布


新特性



?ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 14px;letter-spacing: 0.544px;outline: 0px;visibility: visible;">DB-GPT 支持 Graph RAG 框架, 实现 TuGraph 上的知识图谱构建与检索
使用步骤:
docker pull tugraph/tugraph-runtime-centos7:latest
mkdir -p /tmp/tugraph/data && mkdir -p /tmp/tugraph/log && \docker run -it -d -p 7001:7001 -p 7070:7070 -p 7687:7687 -p 8000:8000 -p 8888:8888 -p 8889:8889 -p 9090:9090 \ -v /tmp/tugraph/data:/var/lib/lgraph/data-v /tmp/tugraph/log:/var/log/lgraph_log \ --name tugraph_demo tugraph/tugraph-runtime-centos7:latest /bin/bash && \docker exec -d tugraph_demo bash /setup.sh
pip install "neo4j>=5.20.0"
.env设置TuGraph配置
GRAPH_STORE_TYPE=TuGraphTUGRAPH_HOST=127.0.0.1TUGRAPH_PORT=7687TUGRAPH_USERNAME=adminTUGRAPH_PASSWORD=xxx
更多教程:https://docs.dbgpt.site/docs/latest/cookbook/rag/graph_rag_app_develop

?ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: var(--articleFontsize);letter-spacing: 0.034em;outline: 0px;">DB-GPT 支持 ollama 部署本地模型服务
使用步骤:
1. 安装ollama https://ollama.com/
2. 拉取模型
ollamapullqwen:0.5b
3. 拉取 embedding 模型
ollamapullnomic-embed-text
4. 安装 python-ollama
pipinstallollama
5. 在.env配置环境
LLM_MODEL=ollama_proxyllmPROXY_SERVER_URL=http://127.0.0.1:11434PROXYLLM_BACKEND="qwen:0.5b"ROXY_API_KEY=not_usedEMBEDDING_MODEL=proxy_ollamaproxy_ollama_proxy_server_url=http://127.0.0.1:11434proxy_ollama_proxy_backend="nomic-embed-text:latest"
6. 启动服务
pythondbgpt/app/dbgpt_server.py

?Agent 模块重构


参考代码示例:examples/agents

?ChatKnowledge支持ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: var(--articleFontsize);letter-spacing: 0.034em;outline: 0px;">rerank模型,同时支持将rerank模型发布成服务

下载模型并在在.env文件设置模型参数并重启服务
##RerankmodelRERANK_MODEL=bge-reranker-base##IfyounotsetRERANK_MODEL_PATH,DB-GPTwillreadthemodelpathfromEMBEDDING_MODEL_CONFIGbasedontheRERANK_MODEL.#RERANK_MODEL_PATH=##ThenumberofrerankresultstoreturnRERANK_TOP_K=3
将 rerank 模型发布成服务
dbgpt start controller --port 8000
dbgpt start worker --worker_type text2vec \--rerank \--model_path /app/models/bge-reranker-base \--model_name bge-reranker-base \--port 8004 \--controller_addr http://127.0.0.1:8000


LLM_MODEL=deepseek_proxyllmDEEPSEEK_MODEL_VERSION=deepseek-chatDEEPSEEK_API_BASE=https://api.deepseek.com/v1DEEPSEEK_API_KEY={your-deepseek-api-key}
test_proxyllm.py DeepseekLLMClient
importasynciofromdbgpt.coreimportModelRequestfromdbgpt.model.proxyimportDeepseekLLMClient#YoushouldsetDEEPSEEK_API_KEYtoyourenvironmentvariablesclient=DeepseekLLMClient()print(asyncio.run(client.generate(ModelRequest._build("deepseek-chat","你是谁?"))))
DEEPSEEK_API_KEY={your-deepseek-api-key}pythontest_proxyllm.py


?支持 Yi-1.5 LLM
.env
#[Yi-1.5-34B-Chat](https://huggingface.co/01-ai/Yi-1.5-34B-Chat)LLM_MODEL=yi-1.5-6b-chat#[Yi-1.5-9B-Chat](https://huggingface.co/01-ai/Yi-1.5-9B-Chat)LLM_MODEL=yi-1.5-9b-chat#[Yi-1.5-6B-Chat](https://huggingface.co/01-ai/Yi-1.5-6B-Chat)LLM_MODEL=yi-1.5-34b-chat
?重构Chroma向量数据库模块
?支持Elasticsearch作为向量数据库
?ChatKnowledge支持 Excel



Bug 修复









欢迎光临 链载Ai (http://www.lianzai.com/) Powered by Discuz! X3.5