返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

使用Ollama本地离线运行大模型

[复制链接]
链载Ai 显示全部楼层 发表于 11 小时前 |阅读模式 打印 上一主题 下一主题

Ollama介绍

用于启动并运行大型语言模型。

GitHub地址:https://github.com/ollama/ollama

官方网站:https://ollama.com/

实践

根据README的指引,安装对应系统的Ollama。

由于我的电脑比较旧了,配置如下:

所以就选择一个参数小一点的大模型,我选择的是phi3 3.8b的版本。

在控制台输入:

ollamarunphi3:latest

即可。

没下载这个模型会自动下载,下载好了就可以开始对话。

对于开发者而言,还可以通过Ollama提供的接口来接入自己的应用:

3.8b参数的大模型在我这台电脑上就已经跑的很慢了,尝鲜是可以的,真要使用如果没有离线的需求并且没有显卡还是使用云平台比较好,现在也有很多免费的模型使用了,而且收费的话个人使用也花不了多少钱。如果有显卡资源并且有离线使用的需求,可以考虑使用Ollama本地离线运行大模型。


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ