返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

贾扬清对Llama 3.1的一些看法

[复制链接]
链载Ai 显示全部楼层 发表于 6 小时前 |阅读模式 打印 上一主题 下一主题

1:让人惊讶的是所有的供应商都提供对该模型的支持,开源让软件和模型共同开发变得非常容易。


2:目前Llama 3.1 405B是一个很难盈利的模型,要半台或一台机器才能运行,成本很高速度也不快,大部分供应商只有做到30 token/s才能保本,而70B的模型能做到150 token/s。


3:对于供应商来说还是能够收支平衡的,首先要做好量化同时控制好负载,但利润率肯定做不到80%(传统SaaS能做到)


4:量化是优化的标准解决方案,忘记FP16. Int8/FP8是大势所趋。


5:量化要非常小心,单一的scale量化将不复存在,未来需要channel wise / group量化方案。


6:他预测405B的采用会受到速度和价格的限制。但在未来一年左右的时间里,效率至少会提高4倍。


7:他很期待测试Mistral Large 123B,不过该模型主要用于学术研究。



8:small model FTW,在垂直应用中,70B的模型足够了,甚至8B模型做好微调也很好。


9:llama 3.1鼓励进行模型微调。


10:vLLM是非常优秀的推理引擎。


11:Lepton AI是一个API大模型平台,速度、价格、并发性和成本需要综合考虑。


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ