链载Ai

标题: 官宣上线!RocketMQ for AI:企业级 AI 应用异步通信首选方案 [打印本页]

作者: 链载Ai    时间: 前天 22:34
标题: 官宣上线!RocketMQ for AI:企业级 AI 应用异步通信首选方案

企业级 AI 应用开发面临新挑战




Cloud Native

随着人工智能技术的飞速发展,模型迭代日新月异,企业正积极构建 AI 应用以提升用户体验和降低人力成本。然而,与传统微服务应用相比,企业在推进 AI 应用落地的过程中,普遍呈现出三个显著特征:

这些业务特点在 AI 应用的开发和集成过程中,引出了以下典型的业务场景问题:

在上述场景中,消息队列能够起到至关重要的作用:

为能够有效解决上述问题,RocketMQ 推出了针对性的解决方案。

RocketMQ for AI

重磅发布




Cloud Native

RocketMQ 专门为 AI 场景推出了全新Lite Topic 模型,相较于 RocketMQ 其他类型的 Topic,LiteTopic 具备以下核心特点:

目前,这些能力已在阿里云云消息队列 RocketMQ 版 5.x 系列实例上正式发布,并会逐步贡献到 Apache RocketMQ 开源社区,欢迎大家使用。

场景应用一:Multi-Agent 异步通信




Cloud Native

延续前文对多智能体(Multi-Agent)通信场景的讨论,我们在此详细阐述 RocketMQ 如何解决多智能体应用开发中的长耗时阻塞问题。

图中展示了多智能体(Multi-Agent)应用中一个 Supervisor Agent(主智能体)和两个 Sub Agent(子智能体)之间的异步通信流程:

1. 接收请求阶段:为每个 Sub Agent 创建一个 Topic 作为请求任务的缓冲队列,可以是优先级 Topic,从而保障高优任务能够被优先处理。

2. 返回结果阶段:

a. 为 Supervisor Agent 创建一个用于接收响应结果的 Topic,并让其订阅这个 Response Topic。该 Topic 可采用 RocketMQ 专为 AI 场景新发布的 Lite Topic 类型;

b. 当 Sub-Agent 完成任务后,它会将结果发送至该 Response Topic,可以为每个独立任务动态创建一个专属的子 LiteTopic(例如,以任务 ID 或问题 ID 命名);

c. Supervisor Agent 通过 MQ 的异步通知机制实时获取这些子 LiteTopic 中的结果,并可通过 HTTP SSE(Server-Sent Events)等协议推送给 Web 端。

这一架构充分利用了 Lite Topic 的以下核心能力,解决了长耗时调用的难题:

场景应用二:分布式会话状态管理




Cloud Native

LiteTopic 的能力还可以有效解决会话场景中的挑战,例如保障长耗时会话的状态连续性、避免任务重试带来的成本增加等。

实现原理如图所示:在一个多节点高可用集群的应用服务中,不同用户的会话被分发到不同节点上。与前述的返回响应结果场景类似,系统为每个会话分配一个专属 LiteTopic 来传递消息(如会话结果)。每个应用服务节点仅订阅其关联会话所对应的 LiteTopic 集合,并将接收到的消息按顺序推送至 Web 端。

在此基础上,系统通过分布式架构和 RocketMQ 的一系列核心特性,实现高可用性保障:

最终,用户在 Web 端感受到的是会话没有中断,从而获得连续的会话体验。同时系统也避免了因连接切换而触发不必要的任务重试,有效节约了宝贵的算力资源和成本。

场景应用三:算力资源高效调度




Cloud Native

在算力资源成本高昂且供给有限的背景下,如何实现资源的高效调度,是一个典型的应用场景。消息队列在此扮演了关键角色:

值得一提的是,RocketMQ 的优先级能力具备一个独特优势:消息的优先级支持在投递后动态修改。

例如,一个普通用户的任务正在队列中排队,此时该用户付费充值将账号升级为 VIP 账号。系统便可以动态提高其已在排队中的任务消息的优先级,让任务立刻被优先执行。

LiteTopic 模型技术解析




Cloud Native

为支持百万量级的 LiteTopic,同时保障高并发与低延迟的消息发送和消费流程,其技术实现的核心要点如下:

1. 发送流程:

为实现快速、自动创建与删除 LiteTopic,基于 RocketMQ 新版本 RocksDB 的 KV Store 存储能力,实现对海量元数据信息的高效管理。

2. 消费流程:

消费流程的核心挑战是:当每个 LiteTopic 内仅有少量消息时,若逐一推送,将导致并发处理能力和系统性能大幅下降。

为解决此问题,RocketMQ 在 Lite-Topic 存储模型的基础上,进一步对消息分发与投递机制进行优化,针对单个消费者订阅上万个 Lite-Topic 的场景,重新设计了一套创新的事件驱动拉取(Event-Driven Pull)机制:

每当有新消息到达时,系统会立即触发订阅关系匹配,并将所有符合订阅条件的消息聚合到一个“就绪集合”(Ready Set)中。消费者可以直接从这个 Ready Set 中合并批量拉取来自多个 LiteTopic 的消息。通过这种方式,有效提高了消费并发度,降低了网络开销,从而显著提升了整体性能。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5