链载Ai

标题: 五年磨一剑:Agent 时代追风不如造风 [打印本页]

作者: 链载Ai    时间: 昨天 21:50
标题: 五年磨一剑:Agent 时代追风不如造风


“我有一剑,可破万剑”——2025年,Agent Infra 领域迎来“破局之剑”。


引子




Cloud Native


2025 年,AI Agentic 基础设施(Agent Infra)迎来爆发拐点。DeepSeek、Qwen 等开源大模型的突破为 Agent 提供了强大的认知“大脑”,而模型上下文协议(MCP)的生态繁荣则赋予其灵活“四肢”——据 IDC 预测,全球 80% 企业将在年内部署 Agent。“大脑”与“四肢”的协同进化,正在倒逼承载二者的“躯干”全面升级:Agent Infra 成为技术攻坚的核心战场。


云厂商竞相推出新一代 Agent Infra 技术架构:






这些技术共同指向同一目标 —— 为 Agent 提供更高弹性、更低延迟、更强安全、更长会话的“躯干”,支撑其从实验室迈向千万级企业场景。当认知与行动完成闭环,Agent Infra 的技术代差将决定企业 AI 创新/转型的落地速度与质量。



Agent Infra 乘风而来

Cloud Native


共性需求


Agent 开发范式的演进对底层基础设施(Agent Infra)提出了全新要求。各大云厂商(AWS,Azure,Google Cloud,阿里云)的新一代 Agent Infra 聚焦长时运行、会话亲和、会话隔离、企业级 IAM 和 VPC 及模型/框架开放等技术突破,本质上是为满足三类核心 Agent 形态的共性需求:


LLM Agent 需连续调用工具链完成复杂推理,可能跨越数分钟甚至数小时。传统 Serverless 的执行时长限制(如 AWS Lambda 的 15 分钟上限)会强制中断任务,因此新一代 Agent Infra 必须突破该限制,支持长时运行。同时,为维持多轮对话的上下文一致性,需会话亲和确保同一请求路由到同一计算实例,避免状态丢失。


自动化工作流(如数据处理 Pipeline)需持久化记录执行状态。传统 Serverless 的无状态特性无法保存中间结果,而新一代 Agent Infra 通过提供有状态会话保障工作流的原子性和可恢复性。会话隔离则确保多租户或高并发场景下任务互不干扰,满足企业级安全合规要求。

Custom Agent 需集成异构工具(API、领域模型、数据库、Code Interpreter、Browser Use 等),要求新一代 Agent Infra 支持模型/框架开放(如 AutoGen、LangChain、AgentScope)。封闭式架构会限制 Agent 能力扩展,而云厂商通过解耦计算层与框架层,可提供插件化集成接口。


技术路径


新一代 Agent Infra 在保留 Serverless 核心优势(全托管免运维、轻量弹性更经济)的同时,通过关键功能(长时运行、会话亲和/会话隔离)和技术突破(状态持久化、冷启动优化、开放集成),解决了 LLM Agent 的持续推理、Workflow Agent 的复杂状态流转、Custom Agent 的灵活定制等核心需求。这标志着 Agent 开发正从“手动拼凑传统组件”转向“利用原生 Infra 实现高效、安全、可扩展的开发部署”这一全新的技术路径。


架构原则


在 Agent 技术架构加速进化之际,函数计算“五年磨一剑”将理论瓶颈转化为经过大规模实践验证的企业级解决方案。我们早已洞见:未来的 Serverless 架构必须遵循三大基本原则 —— 开源开放、组装式设计、灵活定制。这不是技术空想,而是业务驱动、市场淘沙的生存法则。


开源开放是赋予客户自由进化的选择权。以模型服务演进为例:PoC 阶段借力商业模型快速验证;规模扩张时采用混合架构,核心业务拥抱开源模型自主可控,边缘场景沿用商业服务降本增效;至业务成熟期,则通过微调/训练后的自有模型实现深度创新。这种阶梯式的进化路径,让企业始终掌握技术选择权


组装式设计的本质是拒绝重复造轮子。想象一个视频转码工作流:它需无缝串联函数计算、消息队列、日志服务、对象存储等十余种云产品。真正的价值在于 ——




灵活定制需破解更深层命题:解耦资源层与服务层。资源层持续锤炼冷启动、弹性伸缩等原子能力,成为“沉默的基石”;服务层则专注场景创新,将客户需求转化为技术驱动力。当 LLM Agent 多轮会话需求暴涨时,资源层需要快速优化长时任务和状态记录的调度算法;当 Workflow Agent 的某些工作流节点需要毫秒级响应时,服务层需要灵活调配资源如毫秒级快照+弹性策略实现冷启动加速 ——市场价值才是技术边界的唯一标尺,打破技术边界应为用户带来价值



如今,函数计算正以这种「双螺旋结构」推动架构进化:向下吸纳硬件红利构筑高效资源池,向上生长出企业级 Agent 创新场景。当行业仍在持续探索 Agent Infra 技术架构新形态时,我们选择以落地实践为锚点。


从Cloud Native 到 AI Native

Cloud Native


五年技术路,函数计算重塑 Serverless 版图


2020 年


函数计算业内首推 OCI 标准镜像 —— 打破 FaaS 和容器的技术边界


作为业内首个支持 OCI(Open Container Initiative)标准镜像的 Serverless 平台,函数计算彻底解决了环境依赖的碎片化问题。传统 Serverless 受限于运行时语言版本和依赖库的固化配置,而 OCI 镜像将应用与其完整运行环境打包交付,实现开发、测试、生产环境的绝对一致。这一创新直接推动 Serverless 进入企业核心生产场景,为后续 GPU 等异构计算的支持奠定基础。


2021 年


函数计算业内首推 Serverless GPU —— Serverless x AI 全新开发范式


面对 AI 负载对算力的严苛需求,函数计算首创 Serverless GPU 异构实例,突破三大技术壁垒:



这一创新直接推动 Serverless 技术在图像识别、实时推理等场景的应用,拉开 Serverless x AI 的工业化序幕。

2022 年


函数计算业内首推 24 小时长时任务 —— 打破执行时长枷锁


传统 Serverless 受限于短时任务模型(如 AWS Lambda 的 15 分钟上限),难以承载视频处理、数据分析、科学计算等长时负载。函数计算率先支持 24 小时超长任务,关键技术突破包括:



这一创新大大拓宽了 Serverless 在音视频处理、文件处理、批处理与流式计算等领域的适用场景。


2023-2025 年


函数计算 FunctionAI Agent 原生底座 —— 从资源供给到智能服务的生产级跨越


2023 至 2025 年,函数计算以“场景驱动技术创新、开放推进价值突破”为核心理念,推出 FunctionAI 服务,在 Serverless x AI 运行时基础上构建了三位一体的生产级能力和最佳实践:





展望




Cloud Native


函数计算 Agent Infra 的差异化在于“原子化组装”、“开放生态”与“选择权”:



当业界聚焦一体化解决方案(封闭生态或有限制的开源开放)时,函数计算选择成为“AI 乐高”的底座—— 开发者不必在“快速验证”与“深度定制”间妥协,而是以开放架构实现“从实验室到生产可用”的无缝跨越,让 Agent 真正成为企业数字生产力的通用组件。


Serverless 是当前技术领域最有可能演进为 AI Native Infra 的技术架构,函数计算正着力于打造模块化的 Agent Infra 之剑,助力开发者从“生态应用者”进阶为“能力定义者”,最终推动 AI 技术走向开放共享的创新之路。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5