返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

AI 本地部署中的 ollama 是什么?

[复制链接]
链载Ai 显示全部楼层 发表于 半小时前 |阅读模式 打印 上一主题 下一主题
Ollama是一个开源工具,专为在本地计算机上高效运行大型语言模型(LLM,如 deepseek-r1、qwen2.5 等)而设计。它简化了模型的下载、部署和管理流程,让用户无需复杂配置即可在本地体验和开发基于大语言模型的应用。
从 ollama 的网站上可以查看所有的模型信息:
Windows 上直接下载安装包,一路 Next 即可。
Linux 上使用命令行安装:
$curl-Lhttps://ollama.com/download/ollama-linux-amd64.tgz-oollama-linux-amd64.tgz$sudotar-C/usr-xzfollama-linux-amd64.tgz$ollamaserve$ollama-v
也可使用其提供的 install.sh 脚本安装,安装前阅读其脚本,了解安装过程会干些啥:
$curl-fsSLhttps://ollama.com/install.sh-oollama-install.sh
如果自己不想读脚本,可以将脚本内容丢给 deepseek,让 AI 帮你阅读脚本并汇总主要步骤。

以下是该安装脚本的主要步骤汇总:


与手工安装不同的地方是,自动安装会处理显卡驱动的问题:


其中会涉及到使用 lsmod 、modprobe 等 linux kernel module 相关的命令。如果你操作的是和别人共享的服务器,请谨慎对待。因为安装完 ollama 后还会开启 11434 端口,如果是公网GPU服务器,乱开端口有被入侵的风险。


当前测试的服务器的硬件配置为:
$cat/proc/cpuinfo&&free-g&&nvidia-smi
将查硬件配置的命令输出丢给 kimi 让其汇总一下:
安装完成后可以先下个 1.5b 的 deepseek-r1 模型试试。
./ollamarundeepseek-r1:1.5b
deepseek-r1 1.5b 大小约1.1GB
默认安装的 ollama 服务不支持联网搜索功能,如果需要查询互联网上的信息,当前最便捷的办法还是使用AI公司提供的服务。比如问 deepseek-r1 模型的大小和运行需求,通过 kimi 发问:
在比如问: deepseek-r1:1.5b 其中的 b 代表什么?
也可以问 ollama 如何联网、如何安装,最后你会发现,所有博客、公众号的内容都变成了 AI 的素材,人们又通过 AI 获取信息写公众号,最后闭环了...
全文完。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ