链载Ai

标题: 内外网DeepSeek部署实战:Ollama 多客户端 RAG 越狱 [打印本页]

作者: 链载Ai    时间: 2 小时前
标题: 内外网DeepSeek部署实战:Ollama 多客户端 RAG 越狱
1. 前言 (不仅仅是概述)

大家好!我是AI安全工坊。最近,我一直在研究如何在内网环境中安全、高效地部署大型语言模型DeepSeek(LLM)。这篇教程不仅仅是操作指南,更是我的实战经验总结,希望能帮助大家少走弯路!

2. 前置条件 (磨刀不误砍柴工)

2.1 硬件要求 (这可不是闹着玩的!)

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;color: rgb(63, 63, 63);">

2.2 软件要求

3. Ollama 安装与配置 (重中之重)

3.1 Windows 安装 (其实很简单)

  1. 下载:
    访问Ollama官网 https://ollama.ai/,下载Windows安装包。
  2. 安装:
    双击安装包,一路“下一步”。是不是so easy?
  3. 验证:
    打开PowerShell或CMD,输入ollama --version。看到版本号就说明成功了!

3.2 Linux 安装 (一行命令搞定)

  1. 安装:
    打开终端,执行:
    curl-fsSLhttps://ollama.com/install.sh|sh
  2. 验证:
    终端输入ollama --version

3.3 macOS 安装 (和Linux差不多)

  1. 安装:
    终端执行:
    curl-fsSLhttps://ollama.com/install.sh|sh
    或者,用Homebrew:
    brewinstallollama
  2. 验证:
    ollama --version

3.4 环境变量配置 (细节决定成败)

4. 下载DeepSeek模型 (两种方法)

4.1 在线下载 (省事,但需要网络)

ollama run huihui_ai/deepseek-r1-abliterated:32b#越狱32B模型
ollama run deepseek-r1:32b#官方模型
ollama run bge-m3#文本向量模型,用来做RAG知识库 二选一
ollama run nomic-embed-text#文本向量模型,用来做RAG知识库 二选一

4.2 离线下载 (麻烦点,但更可控)

  1. 在能上网的机器上:





欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5