返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

一个月获得 9000 Star! 这个开源项目牛!

[复制链接]
链载Ai 显示全部楼层 发表于 昨天 09:57 |阅读模式 打印 上一主题 下一主题
Ollama 是一个轻量级、可扩展的大模型框架,这个开源项目能帮助你在本地电脑上玩转和运行大语言模型。
如果你的电脑没有 GPU 也是能使用的,只不过大模型会使用 CPU 计算慢一些。
第一步 部署
Ollama 支持 macOS、Windows 预览版和 Linux 系统。你可以直接去开源项目的主页去找最新的部署方式:github.com/ollama
或者使用 Docker 来快速启动 Ollama。此外,Ollama还提供了Python 和 JavaScript 库,方便开发者集成到自己的项目中。
macOS
下载链接:github.com/ollama/ollama#macos
Windows预览版
下载链接:github.com/ollama/ollama#windows-preview
Linux
安装命令:
curl-fsSLhttps://ollama.com/install.sh|sh

Docker

Ollama 的官方 Docker 镜像可在 Docker Hub 上找到,名为`ollama/ollama`。

第二步 下载模型

Ollama支持一系列模型,可以去 ollama.com/library 去下载,例如 Llama 3、Gemma、Mistral和国内的千问等模型都支持,具有不同的参数和大小,用户可以根据需要下载和运行。
下载完成,你就能在本地电脑上随意的切换和使用你下载的大模型了。
第三步 运行模型
你可以打开命令行,使用使用 ollama run命令运行模型,比如:
$ ollama run gemma:2b

执行这个命令会启动 Ollama REPL,你可以在其中与 Gemma 2B 模型进行交互。以下是示例:


第四步:Web 界面

如果你不喜欢在命令行的窗口使用大模型,推荐你使用 Ollama WebUI ,启动后你可以看到一个干净、直观的界面,类似于 ChatGPT 的界面。

开源地址:https://github.com/open-webui/open-webui





回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ