|
简要介绍 随着人工智能技术的快速发展,AI大模型DeepSeek部署需求日益增长。然而,在享受AI技术带来便利的同时,我们也不能忽视其背后潜在的安全风险。 近期有关DeepSeek本地部署存在安全风险事件的报道引发了关注,其中Ollama服务作为一个重要的开源框架,因其配置导致的安全风险受关注。本文将分析这一问题,并提供安全加固方案。
安全风险原因 什么是Ollama? Ollama是一个开源框架,用于快速部署和运行大型语言模型(LLM)。用户可以轻松、方便地在本地、公有云、私有云部署、运行AI模型。然而,这种便利性也带来了潜在的安全风险。 安全风险的核心问题 有些部署Ollama服务将IP地址绑定到0.0.0.0地址,并开放TCP 11434端口。这意味着任何能够访问该IP地址的,都可以通过网络连接到你的模型。 攻击者可以利用以下方式,发现暴露在互联网上Ollama服务端口: 使用网络空间测绘、漏洞扫描、端口扫描工具等。 安全风险:暴露在互联网上Ollama服务端口 方法一 检查Ollama启动时执行命令: set OLLAMA_HOST=0.0.0.0 方法二 检查Ollama的config配置文件 "host":"0.0.0.0" 方法三 检查系统环境变量 OLLAMA_HOST 0.0.0.0 提供以上三种方法,进行安全自查。如果发现host=0.0.0.0,即判定存在安全风险,需要做相关的安全加固。参考下文:把Ollama host 地址改为本机或者内网IP地址,比如:127.0.0.1、192.168.x.x。Windows Defender 防火墙 右键"入站规则" → "新建规则" 选择"端口" → TCP → 特定本地端口:11434 选择"阻止连接" → 应用到配置文件 Debian Ubuntu Kali 操作系统 使用 iptables sudo iptables -A INPUT -p tcp --dport 11434 -j DROP RedHat CentOS 操作系统 使用 firewall-cmd sudo firewall-cmd --permanent --add-rich-rule='rule family="ipv4" port port="11434" protocol="tcp" reject' sudo firewall-cmd --reload 提供以上Windows系统和Linux系统相关方法,实现关闭11434服务端口,仅供参考。 如果需要对特定IP地址开放11434服务,请自行编写相关命令。总结 通过实施以上安全加固措施,可以显著降低本地部署DeepSeek服务的安全风险,构建一个更加安全可靠的AI模型运行环境。以下是我个人的几点建议: 1、遵循最小化原则:仅开放必要的网络端口,并限制访问范围。 2、定期检查与更新:保持对Ollama版本的持续关注,即时更新版本。 3、多层防护策略:结合防火墙、IP白名单等手段,构建多层次安全防护体系。 |