链载Ai

标题: Ollama环境变量配置全攻略:从基础设置到场景化调优 [打印本页]

作者: 链载Ai    时间: 昨天 18:12
标题: Ollama环境变量配置全攻略:从基础设置到场景化调优

在Ollama的本地化部署与性能优化中,环境变量扮演着「神经中枢」的关键角色。通过灵活配置这些参数,开发者可精细调控模型运行时行为,适配从单机开发到分布式集群的多样化场景。本文将结合实战经验,分享一套系统化的环境变量配置方案,助你释放Ollama的最大潜力。

一、跨平台环境变量配置指南

(一)Linux/macOS 配置方案

1. 临时生效(单次会话)

#快速启动自定义配置exportOLLAMA_PORT=12345#自定义服务端口(避免默认端口冲突)exportOLLAMA_MODEL_DIR=./custom-models#指定专属模型存储路径ollamaserve--listenOLLAMA_PORT#启动时加载环境变量配置

2. 永久生效(全局配置)

根据Shell类型编辑对应配置文件(以ZSH为例):

echo'exportOLLAMA_NUM_GPUS=1'>>~/.zshrcecho'exportOLLAMA_CACHE_DIR="/data/ollama-cache"'>>~/.zshrcsource~/.zshrc#立即应用配置变更

(二)Windows 图形化配置步骤

  1. 打开「控制面板」→「系统」→「高级系统设置」

  2. 在「环境变量」中新增系统变量:






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5