返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

AIGC之Ollama 本地大模型应用实战

[复制链接]
链载Ai 显示全部楼层 发表于 昨天 10:25 |阅读模式 打印 上一主题 下一主题


Ollama 是一个开源项目,旨在简化在本地部署和运行大型语言模型(LLMs)的过程。它提供了一系列工具和功能,使得开发者和研究人员能够更容易地在自己的机器上利用这些先进的AI模型,而无需依赖云端服务。

官网:https://ollama.com

Github:https://github.com/ollama/ollama

一、运行环境准备

Ollama 官方提供了 Docker 镜像安装,可以在 Docker Hub 上获取:

Docker Hub :https://hub.docker.com/r/ollama/ollama

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.034em;">二、模型库提供商
提供商:https://ollama.com/library
运行 7B 模型需要至少 8GB 的 RAM,运行 13B 模型需要 16GB RAM,运行 33B 模型需要 32GB RAM。
三、运行本地大模型
运行并与 Llama 3 进行交流,可以使用以下命令:

四、命令行操作 CLI 参考

创建模型

ollamacreateselfModel-f./Modelfile

更新模型

ollamapullllama3

删除模型

ollamarmllama3

复制模型

ollamacpllama3self-llama3

多行输入

使用 """ 包裹文本
>>>"""Hello,...world!..."""I'mabasicprogramthatprintsthefamous"Hello,world!"messagetotheconsole.多模态模型>>>What'sinthisimage?/Users/aid/smile.pngTheimagefeaturesayellowsmileyface,whichislikelythecentralfocusofthepicture.

提示作为参数传入

$ollamarunllama2"Summarizethisfile(catREADME.md)"Ollamaisalightweight,extensibleframeworkforbuildingandrunninglanguagemodelsonthelocalmachine.ItprovidesasimpleAPIforcreating,running,andmanagingmodels,aswellasalibraryofpre-builtmodelsthatcanbeeasilyusedinavarietyofapplications.

列出已安装模型列表

ollamalist

启动 Ollama

ollamaserve

五、源码构建Ollama

安装 cmakego
brewinstallcmakego

然后生成依赖项:
gogenerate./...

然后构建二进制文件:
gobuild.

更详细的说明可以在开发者指南中找到。

运行本地构建

启动服务器:
./ollamaserve
在shell 中,运行模型:
./ollamarunllama2

六、REST API文档提供

详细信息查看文档

https://github.com/ollama/ollama/blob/main/docs/api.md

查看更多集成案例,可以查看github仓库文档


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ