返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

ollama——如何快速搭建一个本地大语言模型

[复制链接]
链载Ai 显示全部楼层 发表于 12 小时前 |阅读模式 打印 上一主题 下一主题

ollama是一个非常好用的本地运行大语言模型工具,让我们本地运行大语言模型变得非常简单。

  1. 访问ollama官网:https://ollama.com/

  2. 下载完安装ollama工具即可



  3. 打开命令行,运行大模型


    ollama run llama2-chinese
  4. 和大模型通话



  5. 退出大模型

    /bye 或者 Ctrl+d
  6. 搭建WebUI,此处使用OpenWebUI,有docker比较方便,搭建完注册第一个用户即为管理员,进入后上面选择模型,即可对话

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main


  7. 参考资源

    1. 可用的大模型列表,有适用于编程的coder,中文的,科学的,识图的,大家可根据自己需求选择和搭建:https://ollama.com/library

    2. github地址:https://github.com/ollama/ollama

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ