附Windows/Mac/Linux全平台配置方案
✅ 推荐配置:
CPU:4核+(AMD EPYC系列)
显存:24GB(RTX 4090)
内存:32GB DDR5
网络:千兆内网
✅ 小编配置:
CPU: Intel(R) Xeon(R) CPU E5-2696 v4 @ 2.20GHz
显存:16GB(Tesla V100-PCIE-16GB) * 3
内存:256GB DDR4
网络:千兆内网
? 多平台安装要点:
# Linux专项配置(Ubuntu示例)
sudoapt-get install -y nvidia-container-toolkit
sudosystemctl restart docker
# Windows特别提示
需启用WSL2并设置内存限制:
[wsl2]
memory=16GB
swap=0# 自定义安装路径(以/data为例)
mkdir-p /data/ollama &&exportOLLAMA_MODELS="/data/ollama/models"
# 启动服务指定端口(默认11434)
OLLAMA_HOST=0.0.0.0:11435 ollama serve &
# 模型下载加速技巧
exportOLLAMA_MIRROR="https://mirror.example.com"
ollama run deepseek-r1:7b
# 国内镜像源配置(速度提升10倍+)
exportOLLAMA_MIRROR=https://mirror.ghproxy.com/
ollama run deepseek-r1:7b
# Windows特别版(解决路径含中文问题)
setx OLLAMA_MODELS"D:\ollama_models"
curl -L https://ollama.com/download/OllamaSetup_zh.exe -o ollama.exe
./ollama.exe
# 出现安全提示时选择"允许所有连接"
# Mac/Linux一键脚本(已处理权限问题)
curl -fsSL https://ollama.com/install.sh |sudoenvPATH=$PATHsh
sudosystemctlenableollama# 验证Ollama服务
curl http://localhost:11434/api/tags
# 检查Dify容器
dockerexec-it dify-api bash
ping host.docker.internal# 指定部署路径(原docker目录可自定义)
gitclonehttps://github.com/langgenius/dify.git /opt/ai-platform/dify
cd/opt/ai-platform/dify/docker
# 小编自定义路径为 /data1/home/datascience/item/ai-platform/dify
# 关键配置文件修改(.env示例)
vim .env
---
# 端口绑定设置
HTTP_PORT=8080
WEBSOCKET_PORT=8081
# 数据持久化路径
DATA_DIR=/data1/home/datascience/item/ai-platform/dify_data
# 启动命令(后台运行)
docker compose up -d --builddify路径位置
启动dify容器
在这个输出中,你应该可以看到包括 3 个业务服务api / worker / web,以及 6 个基础组件weaviate / db / redis / nginx / ssrf_proxy / sandbox。
首先访问地址,进行初始化配置,记得替换为你的ip和端口,这里配置的第一个默认账号为超级管理员,切记注意保存。
输入账号密码,登录dify,进入配置
Model Name:deepseek-r1:7b(需与Ollama模型名完全一致)
Base URL:
- 物理机部署:http://主机IP:11434
- Docker网络:http://host.docker.internal:11434
Temperature:0.7(对话类建议0-1)
Max Tokens:4096(7B模型实测上限)点击 ollama 选择安装
点击添加模型
创建空白应用,聊天助手,命名好你的应用名称
测试AI助手的使用,正常对话查看模型调用
? 传输加密:
# 反向代理配置示例(Nginx)
server{
listen443ssl;
server_nameai.example.com;
ssl_certificate/path/to/cert.pem;
ssl_certificate_key/path/to/key.pem;
location/ {
proxy_passhttp://localhost:8080;
proxy_set_headerHost$host;
}
}[创建应用] → [对话型] → 命名"DeepSeek客服助手"
↓
[模型选择] → Ollama → deepseek-r1:7b
↓
[提示词工程]:
"你是一名专业的客服助手,回答需符合以下要求:
1.使用{{用户语言}}应答
2.引用知识库:{{上传的PDF内容}}
3.禁止透露模型身份"咨询类技术问题用户提问意图识别知识库检索转接API生成回复敏感词过滤返回结果
# 查看端口占用
lsof -i :11434
# 批量释放Dify资源
docker compose down --volumes --remove-orphans
# 强制重建服务
docker compose up -d --force-recreate# 查看Ollama日志
journalctl -u ollama -f
# 验证模型完整性
ollamals
ollama show deepseek-r1:7b --modelfile# docker-compose覆盖配置
services:
api:
environment:
-WORKER_COUNT=4
-MODEL_LOAD_TIMEOUT=600
deploy:
resources:
limits:
cpus:'2'
memory:8G| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |