返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

蚂蚁代码大模型推理部署探索与实践

[复制链接]
链载Ai 显示全部楼层 发表于 昨天 22:22 |阅读模式 打印 上一主题 下一主题

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: var(--articleFontsize);letter-spacing: 0.034em;" width="1091"/>

01

CodeFuse 开源介绍

▲ CodeFuse 开源情况

(图片较长,点开看大图)

02

ModelOps 平台介绍

  • 挑战 1:模型参数的持续增加导致对显存和计算资源的需求急剧上升,而且显卡技术更新缓慢;
  • 挑战 2:大模型采用自回归的生成模式本质上效率不高;
  • 挑战 3:不同的模型请求导致资源消耗的不确定性,进一步增加了部署的复杂性。

(图片较长,点开看大图)

(图片较长,点开看大图)


03

ModelCache 技术介绍


(图片较长,点开看大图)

04

ModelCache 研究及成果


(图片较长,点开看大图)

开源地址:
https://github.com/codefuse-ai/CodeFuse-ModelCache
文章介绍:

CodeFuse开源ModelCache大模型语义缓存


05

ModelOps 技术展望




回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ