|
【项目背景】 2025年2月,国内AI领域迎来现象级事件-DeepSeek突然全网爆红。引发指数级用户增长。面对激增的访问压力,平台服务器多次出现服务中断,"请求失败"的提示界面成为用户高频讨论话题,由此掀起了一场自建AI私有部署的热潮。 历经2个多月的入坑体验,针对Deepseek从小白到环境搭建;RAG(企业与个人)知识库从理论到技术落地;知识应用转化的过程中总结经验。 A、知识库路线选择。 1、将AI做为个人辅助工具且不想(不爱)折腾,在不涉及敏感信息的情况下,建议直接用互联网上的在线AI工具即可。产品开箱即用,简单方便专注应用。 a、本地安装开源免费的知识库应用程序,然后向平台申请API并购买Token。 b、使用互联网大厂开发的AI知识库应用实现个人的AI知识库应用。例如:知乎知识库、豆包本地知识库。 2、如果涉及敏感信息事务处理(例如:合同检查,财务分析,数据分析,知识库等),则建议采用私有化部署。 【总结】:个人普通用户,倾向于豆包本地方案+互联网AI应用;单位组织或家庭多成员及个人高级用户,倾向于本地知识库搭建+互联网AI应用。 B、知识库应用误区。 1、认为私有化部署的本地知识库(大模型)可以从互联网上直接获取信息,把知识库当成百度用。 2、寄希望于AI的“智能”,认为只要将相关的资料不做任何整理直接原样导入,就可以借助AI大模型得到想要的结果内容,这恰是AI大模型魔幻的开始。 3、想让知识库具备聪明大脑,目前仍需人工干预。首先要人工进行资料源的整理(例如规则排版,去除无效格式与内容,去除错误的信息),进而得到干净的数据信息源。 C、知识库大模型的适用场景。 1、将同类型的资料全部上传,然后通过会话形式快速获取相关答案。 2、通过大量同类的资料,就某一个问题(或事项)借助AI大模型进行推理分析,帮助(或训练)自己构建全面且系统化的思维模型。 3、通过知识库不断更新知识与梳理经验,形成【提炼-学习-实践-总结】的良性闭环,构建个人在职场最深的护城河。 D、专注于内容建设。 1、知识库的信息反馈质量核心源于当下的知识“投喂”。 2、知识库的内容需要不断持续整理,知识经验的总结会随着时间不断变化,倒逼自己不断更新并掌握知识经验。 3、关于资料的整理可以借助AI工具取巧处理,提高效率。例如先通过豆包进行解析整理提纯,然后就资料直接转存成PDF或文本格式内容。 4、资料源分为两类单独存放。一份是原始资料,一份是经过AI工具转换的资料,然后再将此份资料导入到知识库中。保留原始资料是满足未来需要不断重新提炼信息。 E、适合原则。 1、它如果出现"答非所问",正经的“胡说八道”,问题可能出在: a、两个大模型没适配好或是大模型参数配置;(如下图例,后续会专门介绍如何参数配置)
b、资料向量解析问题(例如PDF文档中的图文资料,EXCEL或PPT中的带有合并单元格的数据表格,目前都不能够正确解析); c、提示词没用好等因素。(有机会将专门介绍如何使用提示词,请支持鼓励。)
2、目前AI技术发展太快了,每隔一段时间都有新的模型出现,耐心等待其进化;定期对大模型进行适配与参数配置优化。若效果满意就确定优化方案,就不要再随意变更。 3、知识库的向量模型与大语言模型,无需采用最高的模型版本(投入成本高),以适配当下的设备,能够满足自己的知识应用需求就好。 F、投入产出比,算效益账。 (预算高一步到位,预算有限合适就好;失败的沉落成本风险。) 1、虽然有号称可不用独显运行的AI大模型,实际体验下来,只能说是能用(大模型运行反馈慢),效果并不理想没有可行性。 2、目前大模型依然是吃硬件性能大户,从投入性价比考虑,在电脑配置方面优先考虑: a、显存12G以上的独显(重点关注显存容量,这是你能否顺畅使用的前提); b、内存2根组成32GB以上(是你能否用更高级别的大模型,在现有配置下混合模式运行的前提); c、512GB的SSD固态磁盘(纯粹加载快); d、匹配略高于显卡功率需求的电源。(电压电流稳了,主板上的一切设备也就稳了) G、配置参考。 以下是搭建个人知识库项目,在原主机(B450主板+AMD 5600G + 512G SSD )的基础上,进行核心部件升级的配置方案。
---【End】--- |