链载Ai
标题: 豆包电脑版不讲武德降维打击本地部署AI知识库的开源选手 [打印本页]
作者: 链载Ai 时间: 昨天 13:20
标题: 豆包电脑版不讲武德降维打击本地部署AI知识库的开源选手
目前在AI大模型市场上,大家已经公认“场景为王”的时代已经来临,类似DeepSeek、豆包、元宝等通用AI助手竞争已经白热化,增长空间严重受限。未来增长的核心动力将来自于能解决特定痛点、提供独特价值的“AI+场景”应用。无论是搜索、教育、创作还是社交,垂直化、社区化成为破局关键。而其中与广大用户贴的最近,大家也最有动力去践行的AI应用场景就是:帮助自己和孩子成长的个人知识库建设。而且由于数据的敏感性,大家都普遍希望在自己电脑上运行该AI知识库。于是才有了“Cherry Studio+DeepSeek本地大模型”或者“dify+Qwen3本地大模型”的各类开源免费AI助手客户端+本地大模型的“本地AI知识库”建设方法,而且基本都形成赛道了。前有腾讯ima知识库杀入该赛道,但大模型是线上的,而且最关键的是知识库是线上的,这让大家对一些非常敏感的数据上网感到不安。但这一次,豆包电脑版竟然不声不响的直接开启了“本地AI知识库”的建设,对所有开源解决方案形成了降维打击。豆包电脑版在2025年4月22日发布了v1.49.10版本。直接上线了“本地文件问答”功能。该版本豆包电脑版已经可以针对本地文件使用本地模型进行AI问答,文件和对话内容不会上传到服务端,功能支持离线使用。豆包电脑版离线下载的大模型属于云雀家族中的向量化专用版本,即豆包・向量化模型(Doubao Vector Model)。模型容量超过7GB,该模型专为向量检索场景设计,通过生成高语义区分度的文本嵌入向量,支持本地知识库的向量化存储与高效检索,是实现「本地文件问答」功能的核心技术基础。
而且该模型已针对NVIDIA RTX GPU加速,包括GeForce RTX 50系GPU。推荐系统配置:12GB及以上显存的RTX GPU,i5处理器,16GB内存。(我本机配置:i9-14900,32GB内存,RTX 5080显卡16GB显存)。
豆包电脑版这是连本地嵌入模型和本地知识库都一块儿打包提供了呀,哈哈,太牛逼了,直接把中小开发者借助开源软件做AI知识库的路堵死了。话不多说,直接下载模型,上传知识库文档,直接开干。
豆包电脑版允许上传至本地知识库的文件格式包括:DOCX、XLSX、PPTX、PDF、TXT、MD;特别注意,不支持上传图片格式,也许OCR还做得不够完善。我取了个巧,将照相的图片格式直接转成扫描版pdf文件,然后上传本地知识库,但提示无法识别,而这也是本地大模型RAG的难点所在。希望以后字节跳动能在图片识别上下大力气做好产品,为用户提供更实用的AI知识库产品。还是前面文章提到的数学问题“萱萱从家到学校的最短路径问题”,豆包电脑版都从知识库中识别解析到对应的知识,并回答正确啦。至少基于纯文本的知识库解析是可用的状态,而基于图片等多模态的识别解析,暂时还没有做得很完善。
| 欢迎光临 链载Ai (https://www.lianzai.com/) |
Powered by Discuz! X3.5 |