自一月以来, DeepSeek 在 AI 领域引发了极大的热度,也出现了大量分析文章。其中来自 Leonis Capital 于 2.6 发表于 Substack 上的文章:「DeepSeek: A Technical and Strategic Analysis for VCs and Startups」
DeepSeek 的影响远远超出了单一公司的成就。对于初创公司、投资者和技术领跑者来说,DeepSeek 的出现标志着 AI 公司建立竞争优势的方式发生了根本性转变。随着基础模型变得更加高效和易于获取,我们看到了所谓的“护城河/Moat 2.0”的兴起——这是一个新的范式,竞争优势不再来自庞大的算力或数据集,而是来自公司如何构建、学习和部署 AI 系统。这种转变表明,下一波 AI 领导者将不是由谁拥有最多资源来决定,而是由谁能够最具创造性地为特定用例部署和优化 AI 系统来决定。
DeepSeek 实施的独特之处在于他们使用自定义的 PTX 指令(本质上是英伟达 GPU 的汇编语言)来优化这些操作。在 AI 开发中这种底层硬件优化极为罕见,大多数研究人员使用英伟达的 CUDA 平台等高级框架。这种能力可能源于其母公司幻方在高频交易方面的背景,在高频交易中,编写此类底层代码对于竞争优势至关重要。这种 AI 专业技能与深厚的硬件优化技能相结合,代表了 AI 效率竞赛中的一个显著竞争优势。
自 DeepSeek-R1 发布以来,Meta 进入了危机模式,成立了四个独立的“战情室”,由工程师们组成,试图弄清楚一家相对不知名的中国初创公司是如何实现 Meta 巨额投资未能做到的事情。Meta AI 基础设施总监 Mathew Oldham 已警告同事们,DeepSeek 的模型可能会超越他们即将在 2025 年初发布的 Llama 4。时机再糟糕不过了:Meta 刚刚承诺在来年为 AI 项目投入 650 亿美元,而其作为开源 AI 开发领导者这一自我标榜的地位正受到一个更小、更高效竞争对手的挑战。
Meta 通过提供丰厚的薪酬从 OpenAI 和 Anthropic 挖资深 AI 研究员的策略,与 DeepSeek 的方式形成了鲜明对比。DeepSeek 并没有去追逐已成名的人才,而是主要从清华、北大等国内顶尖高校应届毕业生中组建团队,优先考虑原始天赋而非经验。这种策略不仅降低了成本,还培养了一种更具实验性、更少官僚气息的文化。现在,Meta 的“战情室”面临着一项令人难堪的任务,那就是去理解一个更精简、更年轻的团队是如何实现突破性的效率提升的——DeepSeek-V3 的整个训练成本甚至低于 Meta 为个别leader的薪酬。
和 Meta 一样,开源社区的大部分成员也在努力理解 DeepSeek 的突破,但他们持有更加庆祝的态度。Hugging Face 发起了合作的 Open-R1 项目,系统地重建 DeepSeek-R1 的能力。他们的 Open-R1 计划旨在填补 DeepSeek 公开发布中的空白:尽管模型权重是公开的,但数据集和训练代码仍然保密。该项目计划复现蒸馏模型以及创造了 R1-Zero 的纯RL流程,同时开发用于数学、推理和代码的新大规模数据集。
这种需求激增源于几个相互关联的因素。首先,尽管 DeepSeek 优化了训练成本,但运行这些模型进行推理仍然需要大量算力。据报道,H200 芯片是唯一广泛可用的选项,能够在单个节点(8 个芯片)上以完整形式运行 DeepSeek 的 V3 模型。其次,DeepSeek 的开源发布促使许多组织在本地运行这些模型,特别是那些对使用中国公司的 API 有数据隐私担忧的组织。这种向本地部署的转变进一步得到了英伟达 CUDA 生态系统在 AI 开发工具和工作流中的深度嵌入的加强。
DeepSeek 的蒸馏模型的影响为这一效率悖论增添了另一层复杂性。他们的 7B 模型能够在更普通的硬件上运行,同时保持令人印象深刻的性能,乍一看似乎会减少对 GPU 的需求。然而,这种可访问性实际上正在扩大 AI 硬件的总TAM。虽然这些较小的模型可以在消费级 GPU 上运行,使更广泛的用户和应用能够部署 AI,但它们同时也在推动整体基础设施需求的上升。创建这些蒸馏模型仍然需要大量的 GPU 资源——该过程需要更大的“教师”模型进行训练和持续的微调。它们的效率还使得以前不切实际的全新应用成为可能,从实时 AI 处理到边缘计算部署,扩大了 AI 硬件的整体市场。随着这些模型使 AI 更易于获取,我们看到了一个清晰的模式:组织通常从较小的模型开始,但随着需求和雄心的增长,逐渐升级到更强大的硬件。它为 GPU 采用创造了一个新的“入口”——公司可以从规模较小的模型开始,但随着他们扩展 AI 能力,不可避免地会需要更多的计算能力。
我们已经在 AI API 定价中看到了这种“杰文斯悖论”的体现。当 Claude 3.5 Sonnet 以 GPT-4 价格的十分之一推出时,尽管其性能更优,但这并没有减少整体的基础设施需求——相反,它极大地扩展了 AI 服务的市场,并推动了更高的总计算使用量。
云厂商之所以经历需求激增,正是由于这些效率突破。随着 AI 变得更具成本效益,他们的企业客户迅速扩大了 AI 项目,需要更多的云基础设施,而不是更少。云厂商竞相将 DeepSeek 的模型和类似的高效架构整合到他们的平台上,但运行这些模型的大规模复杂要求——包括特殊的网络、冷却和电力输送——实际上加强了客户对超大规模基础设施的依赖,而不是削弱了它。尽管 DeepSeek 的模型每次计算所需的能量更少,但 AI 工作负载总量的大幅增加意味着云厂商仍在计划大幅提升他们的数据中心规模。
4.4 / 应用开发者和初创公司:通过效率创造新机遇
DeepSeek 的 550 万美元的训练成本引发了关于民主化 AI 开发的兴奋,但这从根本上误解了他们取得突破的原因。他们的成就建立在可能超过 10 亿美元的复杂基础设施之上,以及一个在硬件优化方面拥有深厚专业知识的专门工程师团队——这些资源他们只是通过幻方支持才得以获得。对于初创公司来说,真正的革命不在于训练新模型,而在于部署它们:大幅降低的 API 成本和更高效的较小模型正在为 AI 创造全新的可能性。
OpenAI 的 API 定价历来迅速下降。
DeepSeek 将会对 o1 的价格产生下行压力。
对于正在构建复杂 AI 应用程序,尤其是在新兴的Agent领域,API 成本很快变得难以承受的初创公司来说,成本效率突破尤其具有重大意义。
DeepSeek 的 7B 蒸馏模型开辟了另一个前沿领域:边缘部署。这个较小但功能强大的模型使得在设备上直接运行复杂的 AI 成为可能——从可以在偏远地区离线工作的 AI 驱动的医疗设备到需要实时处理而无需云延迟的智能制造系统。通过降低计算和内存需求,这些模型使得在以前由于云或成本问题而使部署不切实际的环境中能够使用 AI 应用程序。
5.3 / 部署复杂性。这代表了应用公司最直接但常常被忽视的竞争优势来源。Perplexity AI 强有力地证明了这一点:尽管没有拥有任何基础模型,他们仅通过卓越的部署架构就打造出了优秀的产品。通过智能地协调多个模型之间的 API 调用、实施复杂的缓存策略以及优化请求路由,他们实现了通常超过单一模型解决方案的性能。随着 DeepSeek 蒸馏模型的出现,这种模式将变得更加突出,因为公司可以根据具体需求混合本地部署、API 调用和边缘计算。关键不仅在于选择这些选项,而在于有效地协调它们——知道何时使用 API 调用以获得灵活性,何时在本地运行模型以保护数据隐私,以及何时将较小模型部署到边缘设备以应对对延迟敏感的应用。随着模型的普及化,这种部署复杂性成为主要的差异化因素。
六、新的算力经济模型
DeepSeek 的效率突破本质上重塑了 AI 部署的经济模型。随着推理成本的暴跌,以前限制 AI 应用的约束正在消失。优秀的应用品类将从以前受算力限制的领域中涌现出来。这就需要我们所说的“经济弹性”——设计能够在成本趋近于零时无缝扩展的系统。我们以前见过这种模式:YouTube 建立其基础设施时就预期到了带宽和存储成本的不可避免的下降,而 Netflix 在对大多数消费者来说在经济上可行之前就承诺了流媒体服务。
最具创新力的公司将超越当前的计算限制,提出一个根本性的问题:当 AI 互动成本趋近于零时,什么成为可能?以下几种可能性:
边缘智能和 AI 助手:边缘部署的经济模型正接近一个转折点,类似于智能手机如何改变了移动计算。如今的 7B 模型仍然需要大量的计算能力,限制了边缘 AI 只能执行基本任务。但随着模型效率的提高和专用 AI 硬件的普及,边缘部署将从受限转向持续运行。这使得环境智能成为可能——AI 系统在环境中持续运行,而不是被明确调用,就像 AWS Lambda 将云计算从持久服务器转变为事件驱动的函数一样。通过将 AI 模型和推理能力推送到边缘设备,初创公司可以解锁一系列以前因延迟、带宽或连接限制而不可行的新应用。其影响是深远的:制造工厂将通过智能传感器部署实时质量控制,医疗设备将在没有云连接的情况下监测患者生命体征并检测异常,AR 系统将提供即时场景理解而无需往返延迟。
七、VC投资新主题
在过去的三年里,投资者们以一个简单的公式来对待 AI 初创公司:巨额资本 + 顶尖人才 = 技术突破。DeepSeek 的出现揭示了一个远比这更复杂、更细致的投资格局。它的技术创新表明,在 AI 领域,真正的竞争优势越来越根植于架构的巧妙和成本效率,而不仅仅是规模。以下是作为投资者的我们从 DeepSeek 的发布中学到的三个重点。
7.1 / 经济弹性作为战略要务。将定义 AI 未来的初创企业将是那些能够展现我们所说的“经济弹性”的企业——即随着新的效率突破的出现而迅速适应和扩展的能力。这意味着要超越基准分数和参数数量等表面层面的指标。投资者必须深入探究那些使初创企业能够顺应计算成本下降浪潮的架构决策和基础设施创新。他们不仅要评估一家公司的现有能力,还要评估其把握未来机会的准备情况。另外,这还包括向基于结果的定价转变,在这种定价模式下,AI 系统的价值不是由计算投入来衡量,而是由交付的切实成果来衡量。
7.3 / 模型厂商和应用厂商之间将出现市场分化。一方面将是模型厂商,他们无疑将看到巨大的创新,但会变得越来越商品化。尽管他们的工作对于拓展可能性的边界至关重要,但研究的快速传播和计算成本的下降将使他们越来越难以保持竞争优势。另一方面将是应用厂商,那些能够将这些基础模型整合到惊艳、以用户为中心的产品和服务中的人。在过去的三年里,许多投资者把 AI 应用视为“套壳的”,但这些应用比大多数人预期的要更有韧性。我们一直认为,应用层才是真正的价值获取发生的地方——在这里,我们将看到 AI 时代的谷歌、亚马逊和苹果。
最后的思考
当我们站在 AI 发展的这个转折点上时,DeepSeek 的突破迫使我们重新考虑关于 AI 中竞争优势的基本假设。传统的观点——即进步是算力资源的简单函数——已经被颠覆。相反,我们看到了 Moat 2.0 的出现,竞争优势是通过复杂的部署、快速的学习周期和垂直专业化建立起来的,而不是通过算力。