返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

豆包,让有独立显卡的电脑都能部署本地大模型,语料库就是电脑里的文件

[复制链接]
链载Ai 显示全部楼层 发表于 昨天 20:41 |阅读模式 打印 上一主题 下一主题
课件老师今天出差了一天,室友说自己睡得挺晚,在床上躺着玩一会儿手机,不一会儿,就鼾声如雷。今天真的很累,但依然坚持准备写完公众号再休息,但打开电脑,开始寻找写作素材,内容写好了,让DS生成封面提示词。打开豆包,发现它今天又更新了一个功能。
本地文件问答
系统给出了一行红色的小字:推荐系统配置:8GB及以上显存的 RTX GPU,i5处理器,16G内存。当前的系统配置过低,无法使用该功能
很遗憾,课件老师出差在外,只随身带有笔记本电脑,只有集成显卡,达不到要求。
系统还提示:开启后可以针对本地文件使用本地模型进行 AI 问答,文件和对话内容不会上传到服务端,功能支持离线使用。
这保证了数据的安全性。从操作顺序来看,跟之前本地部署DeepSeek应该是一个原理,只是它操作更得更简单,以前部署本地模型还有技术门槛,现在就像传一个文件这么简单。系统提示本地模型大小为7G,不知道它与DS的模型相比,谁更优秀。期待大家测试后解答。
课件老师虽然无法第一时间体验,但为了体验它,课件老师配一台台式电脑的想法更强烈了。如果说DeepSeek是把生成式人工智能的价格打下来了,那么豆包这一操作,就是把部署本地大模型的技术门槛降下来了。
最后,大家还可以去看一下,我们通过审核的大模型数量又增加了,现在已经突破了600个过审大模型。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ