ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">在大模型领域,参数量和性能似乎总是正相关:参数量越大,能力越强。然而,这并不是绝对的。最近推出的 MiniCPM3-4B 用 4B(40亿)参数量,在多个场景下实现了超越 GPT-3.5 Turbo 的表现,甚至在某些任务中可比肩 Llama 3 和 Qwen 系列的高参数量模型。更重要的是,它专为ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: inherit;color: rgb(183, 110, 121);">端侧部署设计,能够以更低的硬件成本提供强大的推理能力。ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">今天,我们就聊聊这个“小而强”的模型,号称ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-feature-settings: normal;font-variation-settings: normal;font-size: 13.5px;text-align: left;line-height: 1.75;color: rgb(221, 17, 68);background: rgba(27, 31, 35, 0.05);padding: 3px 5px;border-radius: 4px;">面壁小钢炮,以及它为什么能在端侧部署中大放异彩。ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 15px;color: rgb(63, 63, 63);"> ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 15px;margin: 0.1em auto 0.5em;border-radius: 8px;box-shadow: rgba(0, 0, 0, 0.1) 0px 4px 8px;height: auto !important;" title="null" src="https://api.ibos.cn/v4/weapparticle/accesswximg?aid=96228&url=aHR0cHM6Ly9tbWJpei5xcGljLmNuL21tYml6X3BuZy9vWHFHOEVUdkFlbWVtMDBUSkZGSFY3MnZra05FdGVkaWNDZGtvaWFVREtTNkhHTXlzaWNPNXdMdG1EZWhzQW9JTllVNGNrVTNjRmNZeUNiOWlhUnE2aWFzWTRRLzY0MD93eF9mbXQ9cG5nJmFtcA==;from=appmsg"/>ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;padding-left: 12px;color: rgb(63, 63, 63);">为什么关注端侧部署?ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">大多数语言模型的运行都依赖于云计算资源,但这种方式并非适合所有场景: ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 15px;color: rgb(63, 63, 63);" class="list-paddingleft-1">1.ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: inherit;color: rgb(183, 110, 121);">数据隐私和安全:一些企业或行业(如金融、医疗)对数据敏感性要求高,无法将信息上传到云端。2.实时响应:云端调用容易受到网络延迟影响,而端侧部署能提供更稳定的低延时表现。3.成本控制:云服务按调用计费,尤其在大规模应用时费用惊人,而端侧设备一次性投入后便无额外使用成本。4.离线能力:在没有网络连接的环境下(如边缘设备、偏远地区的应用场景),端侧部署是唯一可行方案。但这些需求也给模型的部署提出了挑战:硬件资源有限,如何在计算力受限的设备上高效运行? MiniCPM3-4B 的技术亮点MiniCPM3-4B 不仅在模型设计上追求高效,更在部署方式上专为端侧场景进行了深度优化。 1.参数量虽小,能力超强MiniCPM3-4B 的参数量仅 4B,但在多项公开评测中表现优异,特别是在中文任务、数学能力、代码生成等方面,表现甚至超越了许多 7B-9B 规模的模型: 2.长文本处理,理论无限传统模型的上下文长度通常有限,而 MiniCPM3-4B 支持原生 32k 长度,甚至通过 LLMxMapReduce 理论上可处理无限长度的文本输入。 例如,处理一个 100k+ 字节的日志文件,MiniCPM3-4B 可以通过分治策略高效完成全文分析和摘要。
3.优化推理性能与传统框架相比,MiniCPM3-4B 在SGLang v0.3推理框架下性能提升了 70%。此外,它也兼容多种推理框架: 以下是一个简单的推理代码示例: fromtransformersimportAutoModelForCausalLM, AutoTokenizer importtorch
# 加载模型 model_name ="openbmb/MiniCPM3-4B" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto", trust_remote_code=True)
# 输入内容 input_text ="请总结人工智能的未来发展趋势。"
# 推理 input_ids = tokenizer(input_text, return_tensors="pt").input_ids output_ids = model.generate(input_ids, max_new_tokens=100) print(tokenizer.decode(output_ids[0], skip_special_tokens=True))
MiniCPM3-4B 为端侧部署带来的优势1.硬件友好得益于参数量的精简和高效的模型架构,MiniCPM3-4B 能够在消费级 GPU(如 NVIDIA RTX 3060)或高端 CPU(如 Apple M1/M2 系列)上流畅运行。对于边缘设备如嵌入式系统,也有量化后的轻量化版本。 2.成本显著降低相比依赖云服务的 GPT-3.5 Turbo,端侧运行无需担心调用费用。以一个小型客服机器人应用为例: - • 云服务:每天 10 万次调用,按每次 0.01 美元计算,每年成本约 36.5 万美元。
- • 端侧部署:一次性设备投入(10 台 RTX 3090 服务器),总成本不超过 10 万美元。
3.数据完全可控在端侧部署,所有数据都在本地处理,不会有数据泄露的风险,尤其适用于对隐私要求极高的场景,如医疗诊断、法律咨询等。 4.灵活扩展性MiniCPM3-4B 提供了丰富的工具调用和插件支持。例如,可以通过 Function Calling 接口直接调用搜索引擎或数据库,实现“边推理边调用工具”的能力。 以下是一个调用外部工具的示例: fromsglangimportfunction, user, assistant, gen, set_default_backend, RuntimeEndpoint
@function defsearch_tool(query): # 示例工具调用:实现一个简单的搜索查询 returnf"结果:'{query}' 的最佳答案"
set_default_backend(RuntimeEndpoint("http://localhost:30000"))
state = search_tool.run("人工智能未来发展") forminstate.messages(): print(m["role"],":", m["content"])
端侧部署的典型应用场景企业内部知识库借助 MiniCPM3-4B,企业可以在内部服务器上部署一个高效的问答系统,员工无需联网即可快速检索文档内容。 智能硬件在智能家居、机器人等硬件中,MiniCPM3-4B 提供了强大的自然语言处理能力,支持语音指令解析、实时对话等功能。 边缘计算针对无人机、车载系统等需要高效离线推理的场景,MiniCPM3-4B 提供了性能与能耗的最佳平衡。 |