返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

强强联手!MinerU携手沐曦完成适配,曦云C500推理性能加速60%

[复制链接]
链载Ai 显示全部楼层 发表于 3 天前 |阅读模式 打印 上一主题 下一主题

近日,上海人工智能实验室OpenDataLab团队、DeepLink团队与沐曦(MetaX)达成深度合作,成功将MinerU多模态文档提取场景落地于沐曦曦云C500智能计算卡,并实现性能跃升。

MinerU GitHub链接:

https://github.com/opendatalab/MinerU

DLInfer GitHub链接:

https://github.com/DeepLink-org/dlinfer

MetaX 算子库链接

https://github.com/orgs/MetaX-MACA/repositories

LMDeploy GitHub链接:

https://github.com/InternLM/lmdeploy

MinerU项目旨在解决多模态文档与复杂网页的解析难题,可将科学文献、扫描文件和复杂网页中的高价值信息,快速转化为Al-Ready数据,为RAG 知识库、Agent工具及大模型训练提供高质量的语料支撑,目前该项目正在持续适配国产芯片,努力构建开放高效技术生态,驱动产业应用与技术创新。

在此次合作中,得益于DLInfer对LMDeploy主流模型推理的强力支持,MinerU在曦云C500 上展现出了卓越的性能。经过实测,Graph模式相比Eager模式可实现性能加速 60%。

" MinerU + 芯片 + DLInfer + LMDepLoy " 技术路线

DLInfer是一套专为国产硬件适配大模型推理框架的中间件解决方案,其核心功能在于通过标准化的融合算子接口,打通上层大模型推理框架与底层硬件厂商的异构计算能力。目前,DLInfer已实现软硬适配工程中的有效解耦,支持包括 InternLM系列、InternVL系列、Qwen系列、DeepSeek系列在内的多款主流模型在多元硬件上的推理适配,支撑包括沐曦股份曦云C500在内的超5款主流硬件接入。

DLInfer 架构图

DLInfer通过标准化的融合算子接口,工程团队成功高效地打通了上层大模型推理框架与底层沐曦硬件的异构计算能力,并实现了软硬适配工程的有效解耦,让科研团队能够更专注于MinerU的核心功能优化,而不必为底层硬件差异耗费过多精力。

此次与沐曦的合作,不仅验证了MinerU在国产算力平台上的广泛适应性,也展现了国产软硬协同生态的巨大潜力。未来,OpenDataLab团队将继续携手沐曦及更多合作伙伴,为开发者提供更高效、更易用的文档解析与数据处理工具,共同推动国产 AI 生态的繁荣发展。

上海AI实验室致力于构建AI开放数据生态,持续推动数据要素全面赋能大模型发展。实验室打造的OpenDataLab开放数据平台,现已成为国内领先的大模型开源数据平台。平台持续为开发者与研究者提供高质量、安全合规的AI数据支持,有效应对数据处理中的各类风险与挑战,为大模型的技术研发与产业落地提供了坚实的数据基础,有力推动了AI开放生态的繁荣。

在打通数据要素的基础上,为进一步释放算力潜能、实现软硬件协同创新,实验室推出了人工智能开放计算平台DeepLink。作为芯片与深度学习框架之间的“桥梁”,其从根本上实现了软硬件解耦。DeepLink平台聚焦多元芯片生态建设,深耕编译优化、异构通信等核心技术,全力推进国产AI工具链研发与安全高效的方案落地,为人工智能领域的软硬件协同创新与产业共建提供了关键纽带。

图片

END


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ