返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

简单说说微软发布会感受

[复制链接]
链载Ai 显示全部楼层 发表于 前天 09:53 |阅读模式 打印 上一主题 下一主题

1. 看起来提供了AMD MI300 VM计算服务,更像是陪跑,几个CSP未来加速卡策略大概相同:一供NVDA+二供+自研ASIC,比例不确定,三者得都有。所以你说目前阶段除了分散供应风险,二供和ASIC的真实商业价值有多大?从模型上也一样,一供GPT-4+二供一堆开源+自研phi-3等一堆小模型。实质上策略都是一样的。但从目前来看,同为一供的NVDA+GPT-4/5,正在形成商业、生态上的正循环,其他真不好说。多说一句,有位读者提过,微软的确在fix AMD MI300的软件问题...

2. 英伟达与微软进入“全栈合作”,除了GPU、DGX Cloud,Azure AI Platform上支持了NIM,之前我们分享过Al Enterprise是一个端到端的云原生软件平台,如果打开去看其里面的Infra、框架、工具、应用,这就是一个基于GPU的操作系统。上到各家CSP服务是第一步,能否建立操作系统的地位还是未知。之前我们听到过单卡收了4500美金/年的软件收入,更多针对enterprise,对微软谷歌亚马逊能收到这么钱吗?目前还真不确定。但未来随着推理服务的扩大、复杂化,serving本身变成一件极其专业、且严重依赖于GPU infra的事情,“操作系统”的价值会越来越突出。

3. 过去一年,GPT-4速度性能提升了6倍,但cost降低到了之前的1/12,对应性能/成本提升了70倍。这基本符合我们之前说的推理成本基本半年降低一个数量级。考虑到下一步硬件加成、模型架构继续优化,GPT-4推出免费版本的时间越来越近了

4. 微软自身的算力过去一年提升了30倍。且CTO Kevin Scott强调这种算力的扩张“ the end is nowhere in sight”,看不到头。之前大概匡算过微软手里目前等效H100可能到了40-60w张,今年整个还要翻三倍到180w张。

5. copilot从C端进入B端企业工作流,或者从office进入enterprise software。与过去微软发展路径差不多,在大家预料之内。但要注意的是这相比之前office对模型准确度提出了更高要求,说实话个人觉得会比昨天AIPC 类似rewind那种功能更难。比如rewind未来依赖于更多模态统一压缩降维到latent后的大幅降本,可能是个工程问题,而long thinking、复杂推理精确度,需要模型能力实质提高。因此微软target是今年年底推出相关产品,不知道是否与新模型发布节奏有关。

欢迎私信讨论


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ