第一个看点是AI正式迈入Agentic AI时代。
这个词听起来挺学术,其实就是AI不再是个傻乎乎的工具人,而是开始有了自己的“脑子”,能独立思考、推理、决策了。
过去的AI就像个按部就班的实习生,你给它一个任务,它就一板一眼地执行,但要是任务复杂一点,它就蒙圈了。
而Agentic AI不一样,它不仅能理解你的需求,还能自主分析,想出更优的解决方案。
黄仁勋在演讲里,特意拿Llama3.3和DeepSeek R1这两个模型举了个例子。
这两个模型的区别在哪呢?
你可以把Llama3.3想象成一个做事只会按照流程来的助理,比如让它安排一场婚礼的座位,它可能就简单地按照“人均分配”来排,根本不考虑新娘的闺蜜和她妈妈是不是应该坐在一起,结果弄得场面一团糟。
而DeepSeek R1就不一样了,它像一个更懂人情世故的“老手”,它会先分析每位宾客的关系,比如谁和谁是好朋友,谁和谁不对付,甚至连谁上次婚礼上喝多了闹过事,它都能记住,然后排出一个让所有人都舒服的座次表。
这就是Agentic AI的本质区别——它不仅仅是个执行者,更像是一个“有点脑子”的帮手,能在复杂的环境里主动思考,甚至纠正自己。
但这里有个问题,AI要具备这种自主推理能力,背后的计算量是天文数字。
黄仁勋在演讲中强调,Agentic AI需要的计算量比传统AI多了至少100倍甚至1000倍。
为什么?
因为它不只是单纯地给你一个答案,而是要经过一系列逻辑推理,把可能的方案都跑一遍,最后选出最合适的结果。
打个比方,传统AI像是填空题,你问它一个问题,它从训练数据里找一个最接近的答案直接填上。而Agentic AI更像是解应用题,它不仅要读懂题目,还要分析问题的条件,尝试不同解法,甚至自我检查,看看结果是不是靠谱。
黄仁勋还举了个金融领域的例子。
假设你让AI帮你选一支股票,以前的AI可能就看历史数据,简单预测一下走势,给你一个“买”或者“不买”的建议。而Agentic AI就不一样了,它会考虑各种经济因素,比如市场趋势、公司基本面,甚至还能结合新闻热点分析投资者情绪,最终给出一个更有逻辑的决策。
这意味着,未来GPU的需求不仅不会减少,反而会成倍增长。市场上那些担心“AI是不是已经够用了”的声音,其实是低估了AI的发展速度。
黄仁勋也直接在台上回应了这些质疑,他说:你们觉得GPU用不完?不,AI才刚刚开始。
当然,英伟达作为GPU供应商,说这个话有自己的观点,但不可否认的是,AI确实正在变得越来越复杂,算力的需求也越来越大。
未来的AI不是简单的工具,而是更像一个“智能合伙人”。它能帮我们做决策,甚至在某些事情上比人类更冷静、更理性。Agentic AI的时代,才刚刚开始。