最新文章

2025年11月7日

官宣上线!RocketMQ for AI:企业级 AI 应用异步通信首选方案
企业级 AI 应用开发面临新挑战 随着人工智能技术的飞速发展,模型迭代日新月异,企业正积极构建 AI 应用以提升用户体验和降低人力成本。然而,与传统微服务应用相比,企业在推进 AI 应用落地的过程中,普遍呈现出三个显著特征: + 任务处理耗时长:传统微服务应用通常能实现毫秒级响应,而 AI 应用的处理周期跨度极大——从几分钟到数小时不等。这种长耗时与不确定性,要求系统架构必须在任务调度、资源分配和用户体验设计上进行重新考量,避免同步调用带来的长时间阻塞。 + 算力资源稀缺性且成本高昂:AI 应用的训练与推理高度依赖 GPU 等稀缺且昂贵的算力资源。因此,任何因网络或应用异常导致的任务重复处理,都会直接造成算力资源浪费和成本增加。如何保障任务在异常情况下不丢失、不重复,成为控制成本的关键。 + 算力利用率与业务流量波动的矛盾:业务请求天然存在波峰波谷。为应对流量高峰以保障服务稳定,企业需要预留大量算力,导致流量低谷时资源闲置;反之,若为节约成本而缩减资源,又难以应对高峰请求,可能导致系统过载或任务积压。如何在有限算力下实现高效调度,既提高资源利用率,又保障高优任务及时响应和系统稳定性,构成了一个核心矛盾。 这些业务特点在 AI 应用的开发和集成过程中,引出了以下典型的业务场景问题: + 单智能体(Agent)局限性与多智能体(MultiAgent)协作:由于单智能体缺乏专业分工、难以整合多领域知识,无法在复杂场景中实现动态协作决策。因此,随着 AI 应用场景变得更加复杂,单 Agent 应用会逐步向多 Agent 应用演进。然而,在 AI 任务处理耗时长的背景下,智能体间的通信(Agent2Agent)必须解决长耗时同步调用带来的阻塞问题以及应用的协作扩展性问题。 + 大规模会话状态管理,并保障会话连续性和任务处理可靠性:在网络或应用节点发生异常时,如何保障用户会话的连续性体验,并确保会话任务不被重复处理以避免算力资源浪费,成为一大挑战。 + 在有限算力下实现高效调度,并保障高优任务的及时响应:如何在有限算力资源下实现高效任务调度,从而既能提高算力资源利用率,保障高优任务被及时处理,又能确保算力服务整体稳定性。 在上述场景中,消息队列能够起到至关重要的作用: + 首先,通过消息队列将同步调用改为异步通知,是解决长耗时阻塞的关键。 + 其次,消息队列天然的“削峰填谷”能力可以平滑请求流量,缓解算力资源的处理压力。 + 再结合定速消费和消息优先级等高级特性,便能更有效地调度有限的算力资源。 为能够有效解决上述问题,RocketMQ 推出了针对性的解决方案。 RocketMQ for AI 重磅发布 RocketMQ 专门为 AI 场景推出了全新 LiteTopic 模型,相较于 RocketMQ 其他类型的 Topic,LiteTopic 具备以下核心特点: + 轻量资源:LiteTopic 是轻量资源,支持在父 Topic 下创建百万数量级的 LiteTopic,满足大规模任务需求。 + 自动化生命周期管理:LiteTopic 可在收发请求时自动创建,并可设置过期时间,到期后自动删除,简化了业务开发和资源管理。 + 高性能订阅:在消费订阅方面,每个消费者可以动态订阅或取消订阅多达万级的 LiteTopic 集合。如图中所示,消费者 1 订阅列表是 LiteTopic 1 和 LiteTopic 2,消费者 2 订阅列表是 LiteTopic 3 和 LiteTopic 4。 + 排他消费:确保一个 LiteTopic 在同一时间只被一个消费者订阅,这在会话保持等场景中至关重要。 + 顺序性保障:每个 LiteTopic 内部的消息严格保证顺序存储。 目前,这些能力已在阿里云云消息队列 RocketMQ 版 5.x 系列实例上正式发布,并会逐步贡献到 Apache RocketMQ 开源社区,欢迎大家使用。 场景应用一:MultiAgent 异步通信__ 延续前文对多智能体(MultiAgent)通信场景的讨论,我们在此详细阐述 RocketMQ 如何解决多智能体应用开发中的长耗时阻塞问题。 图中展示了多智能体(MultiAgent)应用中一个 Supervisor Agent(主智能体)和两个 Sub Agent(子智能体)之间的异步通信流程: 1. 接收请求阶段:为每个 Sub Agent 创建一个 Topic 作为请求任务的缓冲队列,可以是优先级 Topic,从而保障高优任务能够被优先处理。 2. 返回结果阶段: a. 为 Supervisor Agent 创建一个用于接收响应结果的 Topic,并让其订阅这个 Response Topic。该 Topic 可采用 RocketMQ 专为 AI 场景新发布的 Lite Topic 类型; b. 当 SubAgent 完成任务后,它会将结果发送至该 Response Topic,可以为每个独立任务动态创建一个专属的子 LiteTopic(例如,以任务 ID 或问题 ID 命名); c. Supervisor Agent 通过 MQ 的异步通知机制实时获取这些子 LiteTopic 中的结果,并可通过 HTTP SSE(ServerSent Events)等协议推送给 Web 端。 这一架构充分利用了 Lite Topic 的以下核心能力,解决了长耗时调用的难题: + 轻量资源:支持创建百万量级的子 LiteTopic,可以满足海量请求任务的通信需求。 + 自动化生命周期管理:子 LiteTopic 支持自动创建和删除,可以简化业务代码,降低资源管理投入。 + 顺序性保障:每个子 LiteTopic 的消息均按顺序存储和消费,可以保证流式响应结果的顺序性。 场景应用二:分布式会话状态管理 LiteTopic 的能力还可以有效解决会话场景中的挑战,例如保障长耗时会话的状态连续性、避免任务重试带来的成本增加等。 实现原理如图所示:在一个多节点高可用集群的应用服务中,不同用户的会话被分发到不同节点上。与前述的返回响应结果场景类似,系统为每个会话分配一个专属 LiteTopic 来传递消息(如会话结果)。每个应用服务节点仅订阅其关联会话所对应的 LiteTopic 集合,并将接收到的消息按顺序推送至 Web 端。 在此基础上,系统通过分布式架构和 RocketMQ 的一系列核心特性,实现高可用性保障: + 故障切换:当网络异常等原因导致 Web 端 2 重连到集群中的另一个节点 2 时,节点 2 会立即订阅此会话对应的 LiteTopic 2。 + 消费转移:由于排他消费特性,LiteTopic 2 的消息将不再推送给节点 1,转为推送给节点 2。 + 无缝续传:得益于消息持久化和消费位点持久化两大特性,节点 2 能够从上一次中断的位置无缝衔接,推送的数据流会接着之前的消费进度推送给节点 2。 最终,用户在 Web 端感受到的是会话没有中断,从而获得连续的会话体验。同时系统也避免了因连接切换而触发不必要的任务重试,有效节约了宝贵的算力资源和成本。 场景应用三:算力资源高效调度 在算力资源成本高昂且供给有限的背景下,如何实现资源的高效调度,是一个典型的应用场景。消息队列在此扮演了关键角色: + 首先,利用其天然的异步解耦和“削峰填谷”能力,可以平滑波动的请求流量,平稳地调用模型服务或算力服务。 + 其次,通过消费者限流(定速消费)能力,可以有效保护核心算力资源的稳定性,防止其因瞬时流量冲击而过载。 + 最后,消息优先级能力能够确保有限的算力资源被优先分配给高优任务(如高价值或高紧急度的任务)使用。 值得一提的是,RocketMQ 的优先级能力具备一个独特优势:消息的优先级支持在投递后动态修改。 例如,一个普通用户的任务正在队列中排队,此时该用户付费充值将账号升级为 VIP 账号。系统便可以动态提高其已在排队中的任务消息的优先级,让任务立刻被优先执行。 LiteTopic 模型技术解析 为支持百万量级的 LiteTopic,同时保障高并发与低延迟的消息发送和消费流程,其技术实现的核心要点如下: 1. 发送流程: 为实现快速、自动创建与删除 LiteTopic,基于 RocketMQ 新版本 RocksDB 的 KV Store 存储能力,实现对海量元数据信息的高效管理。 + 统一存储、多路分发:RocketMQ服务端接收到消息后,将所有消息数据统一存储在底层的 CommitLog 文件中且仅存储一份,这种单一文件的追加模式(Append)避免了磁盘碎片化,保障了极致的写入性能。但通过多路分发机制,可以为不同的 LiteTopic 生成独立的消费索引(ConsumerQueue,简称 CQ)。 + 索引存储引擎升级:摒弃了传统的文件型 CQ 结构,而是替换为高性能的 KV 存储引擎 RocksDB。通过将队列索引信息和消息物理偏移量(Physical Offset)作为键值对存储,充分发挥 RocksDB 在顺序写入方面的高性能优势,从而实现对百万级队列的高效管理。 2. 消费流程: 消费流程的核心挑战是:当每个 LiteTopic 内仅有少量消息时,若逐一推送,将导致并发处理能力和系统性能大幅下降。 为解决此问题,RocketMQ 在 LiteTopic 存储模型的基础上,进一步对消息分发与投递机制进行优化,针对单个消费者订阅上万个 LiteTopic 的场景,重新设计了一套创新的事件驱动拉取(EventDriven Pull)机制: 每当有新消息到达时,系统会立即触发订阅关系匹配,并将所有符合订阅条件的消息聚合到一个“就绪集合”(Ready Set)中。消费者可以直接从这个 Ready Set 中合并批量拉取来自多个 LiteTopic 的消息。通过这种方式,有效提高了消费并发度,降低了网络开销,从而显著提升了整体性能。 为企业级 AI 应用提供全方面的异步通信保障 随着 AI 技术的快速发展和应用落地,RocketMQ 已完成向“AI MQ”方向的战略升级,不仅支持传统的微服务应用,也致力于为企业级 AI 应用的开发和集成提供一站式异步通信解决方案,涵盖会话管理、Agent 通信、知识库构建以及模型算力调度等典型场景。同时,阿里云云消息队列 RocketMQ 版产品通过在成本与稳定性方面的持续优化,进一步帮助用户降本增效。 目前,RocketMQ for AI 相关能力已在阿里巴巴集团内部以及阿里云大模型服务平台百炼、通义灵码等产品中经过大规模生产环境的验证,且取得显著成效,充分证明了其在高并发、复杂的 AI 场景下的成熟度与可靠性。 展望未来,RocketMQ 将持续在 AI 领域进行技术迭代与创新,赋能更多应用场景,并积极与 AgentScope、Spring AI alibaba、Dify 等主流 AI 生态系统/服务合作集成,共建高效、智能的 AI 应用基础设施,以及逐步将经过阿里集团 AI 业务验证过的方案与特性,持续反馈到开源社区。 诚邀您扫码参与问卷调研,反馈真实使用场景和痛点,帮助我们打造更符合 AI 时代需求的消息引擎。也欢迎钉钉扫码加入交流群(群号:110085036316),与我们交流探讨~ 目前,轻量主题(LiteTopic)[1]功能已在阿里云云消息队列 RocketMQ 版[2]非 Serverless 系列(包年包月、按量付费)和 Serverless 系列的独享实例支持,可提交工单申请白名单(提单时需要提供购买实例的主账号 uid 和实例所属地域)。 同时,阿里云官网已上线 RocketMQ for AI 的解决方案,欢迎! 相关链接: [1] 轻量主题(LiteTopic) _https://help.aliyun.com/zh/apsaramqforrocketmq/cloudmessagequeuerocketmq5xseries/developerreference/litetopic_ [2] 云消息队列 RocketMQ 版 _https://www.aliyun.com/product/rocketmq_

2025年10月28日

PalmPay 基于 Apache RocketMQ 搭建非洲普惠金融“高速通道”
PalmPay:非洲领先的移动支付平台 PalmPay 是非洲知名的移动支付平台,目前主要在尼日利亚、加纳、坦桑尼亚、肯尼亚开展金融科技服务,提供包括电子支付、转账汇款、手机话费及流量充值、水电煤及有线电视等便民缴费服务。 自 2018 年成立以来,PalmPay 深耕非洲市场,也迅速成为非洲领先的金融科技公司,对非洲的金融格局产生了切实的影响。PalmPay 致力于提供安全、易用、创新的数字支付服务,获得了数百万用户和商家的信任与支持,推动了整个非洲大陆普惠金融的发展。 随着非洲基础设施的不断完善和互联网消费需求的持续增长,PalmPay 未来会拓展更多国家,不断实现更强大的技术创新和更广阔的地域覆盖,为更多非洲用户提供便捷的支付服务。通过在本地化内容领域的不懈深耕,致力于为非洲用户带来更方便、更多元的互联网体验。 高速增长下的“阵痛”:支付业务面临的技术挑战 作为一家金融科技公司,PalmPay 致力于为用户提供便捷、安全且灵活的移动支付与金融服务。随着业务规模持续扩张,用户基数与终端设备数量激增,对后台系统提出了更高要求。为了提升运营效率和服务质量,PalmPay 面临着以下技术挑战: + 交易事务一致性:在分布式系统中,业务逻辑通常涉及数据库操作和消息发送(如支付后发送扣款通知)。若数据库操作成功但消息发送失败,会导致数据不一致。传统方式需自行实现补偿机制,复杂且容易出错。 + 高效的消息处理:在高并发支付场景下,消息系统的性能至关重要。当业务量突增导致消息中间件性能下降时,会大幅增加平均响应时间,致使业务处理出现明显延迟,从而影响用户体验。 + 资源的弹性伸缩:按照业务峰值配置资源的传统方式,在业务低谷期会造成资源闲置浪费,当面对突发流量时,实例扩容速度较慢,可能无法在短时间内完成扩容,进而影响服务稳定性。 为应对上述挑战,PalmPay 采用了基于阿里云 RocketMQ 消息中间件——云消息队列 RocketMQ 版,显著提升了整体架构的稳定性和可扩展性,提高了消息处理效率,确保了高并发场景下的业务连续性,最终优化了用户体验。 破局之道:阿里云 RocketMQ 如何化解三大挑战 PalmPay 通过云消息队列 RocketMQ 版与业务系统集成的解决方案,结合其支付核心系统的特点,显著提升了整体架构的稳定性与可扩展性,优化了消息处理效率,确保了高并发交易场景下的业务连续性与数据一致性,从而进一步提升了用户体验和服务质量。此外,通过在本地进行私有化部署,满足了其合规性要求。 + RocketMQ 事务消息在支付业务中的应用:在支付业务中,用户完成交易后,系统需将支付结果(如支付成功/失败)实时推送至用户端(如 App 通知、短信或邮件),并确保支付系统内部的交易状态与消息推送系统保持一致。RocketMQ 事务消息通过“半消息(Half Message)”与“事务回查(Transaction Check)”机制,确保了本地事务提交与消息发送紧密耦合。只有本地事务提交成功,消息才会被真正发送并对消费者可见;若本地事务失败,消息则会被回滚或丢弃。该机制极大地保证了本地数据与消息通知之间的一致性。 + RocketMQ 在高并发交易处理中的作用:业务高峰期,PalmPay 面临巨大的交易并发压力。传统架构下,交易请求直接打到业务系统,容易造成系统拥堵甚至雪崩。为此,PalmPay 将 RocketMQ 作为交易异步处理的核心组件,通过消息队列实现交易请求的缓冲与削峰填谷。RocketMQ 的高性能写入能力和横向扩展架构,使其能够轻松应对突发流量,确保系统在高负载下依然保持稳定运行。同时,RocketMQ 的广播与集群消费模式支持多种消费策略,帮助 PalmPay 实现了灵活的负载均衡机制,进而提升了系统整体的吞吐能力和响应速度,SLA 稳定性支持 99.99%。 + 资源弹性伸缩与运维效率提升:结合阿里云 RocketMQ Serverless 的技术优势,PalmPay 实现了消息队列资源的按需弹性伸缩。系统可在业务低谷时自动释放闲置资源以降低运营成本,并在流量高峰时快速扩容以保障服务稳定性。同时,RocketMQ 提供了完善的消息追踪、监控告警和自动运维能力,显著降低了系统运维的复杂度,提升了整体运维效率。 通过这一系列基于 RocketMQ 的技术优化,PalmPay 成功构建了一个高可用、高可靠、高弹性的消息中间件体系。这不仅为非洲地区日益增长的数字支付需求提供了坚实的技术支撑,也为未来业务的持续扩展和全球化布局奠定了坚实的基础。 云消息队列 RocketMQ 版 5.x Serverless 系列核心优势 云消息队列 RocketMQ 版 5.x Serverless 系列基于存算分离架构,可在保证稳定性的前提下,通过资源快速伸缩实现资源使用量与实际业务负载紧密匹配,并支持按照实际使用量计费,从而有效降低运维压力和使用成本。 在业务波动较大的场景下,非 Serverless 实例(包年包月和按量付费)与 Serverless 实例在使用规格上存在明显差异,具体变化情况如下图所示: 云消息队列 RocketMQ 版 Serverless 实例具备灵活的资源伸缩能力,能够满足业务在不同发展阶段的资源需求。其核心优势如下: + 开箱即用,兼容开源版本:以业务应用为中心,使开发人员无需关注 Serverless 实例的资源规模与稳定性,能更专注于核心业务代码的开发,进而降低企业的运维成本。 + 自适应弹性:Serverless 实例采用动态资源调整策略,可根据实时业务负载自动弹性伸缩,企业因此无需预先估算并配置实例规格,减少资源闲置浪费。 + 按实际使用量付费:根据实际使用的消息量、Topic 资源、网络流量、存储等资源计算费用,并按小时结算,真正实现按量付费,从而节省使用成本。 展望未来:加速非洲普惠金融发展创新 通过采用阿里云云消息队列 RocketMQ 版,PalmPay 成功构建了一套高可用、高可靠、高弹性的消息中间件体系,全面提升了系统的稳定性、消息处理效率与业务连续性。云消息队列 RocketMQ 版在支付消息通知、高并发交易处理以及资源弹性伸缩等方面发挥了关键作用,有力支撑了 PalmPay 在非洲市场快速增长的数字支付需求。 借助云消息队列 RocketMQ 版的高性能、低延迟和灵活扩展能力,PalmPay 实现了支付业务的异步化、解耦化与智能化升级,不仅优化了用户体验,也显著提升了系统运维效率和业务响应能力。未来,随着 PalmPay 持续拓展更多金融服务场景,云消息队列 RocketMQ 版将继续为其提供坚实的技术底座,助力其在非洲乃至全球推动普惠金融的深入发展与数字化创新。

2025年10月28日

Apache RocketMQ for AI 荣获 2025 年度 OSCAR “开源+人工智能”典型案例
2025 年 10 月 28 日,中国通信标准化协会在北京举办第九届 “OSCAR 开源产业大会”,重磅发布 2025 年度 OSCAR“开源+”典型案例评选结果。 近年来,开源技术驱动各领域飞速发展,深刻影响信息技术产业发展格局。为深化开源技术在各行业的融合应用,普及开源文化,推动形成“众研、众用、众创”的开源生态格局,中国信息通信研究院联合中国互联网协会启动 2025 年度 OSCAR“开源+”典型案例征集工作,旨在挖掘具有行业范式价值的典型实践,促进各行各业经验共享,为数字中国建设注入新动能。 其中,Apache RocketMQ for AI:AI 应用全链路异步解决方案 荣获 “开源+人工智能”专项类别典型案例。 2025 OSCAR “开源+人工智能”专项类别典型案例聚焦人工智能领域开源突破,重点征集大模型及具身智能开源、AI 数据集开放、AI 原生应用开发工具链等前沿实践。 Apache RocketMQ 正在从传统消息中间件演进为专为 AI 时代打造的消息引擎,通过 LiteTopic 轻量模型、消息优先级、定速消费等核心能力,为企业级 AI 应用的多智能体(MultiAgent)通信、大规模任务调度、长会话状态管理等场景提供全链路异步解决方案。 MultiAgent 异步通信 LiteTopic 模型凭借其百万级资源创建、自动化生命周期管理和顺序性保障,高效适配 Agent2Agent 异步通信需求,有效解决长耗时调用阻塞和 MultiAgent 应用协作扩展性难题。 AI 任务智能调度 RocketMQ 作为请求和后端算力服务的缓冲区,可平滑请求流量,最大化 AI 算力利用率;消费者限流能力保障核心 AI 算力服务稳定性;消息优先级将有限算力资源优先分配给高优先级请求任务。 分布式会话状态管理 当用户与应用服务开启会话时,RocketMQ 动态为该会话创建一个以会话 ID(SessionID)作为唯一标识的专属消息队列(LiteTopic)。所有会话相关数据,如历史记录和中间结果,均作为消息在此队列中有序传递。该架构实现了应用“无状态化”,显著简化开发复杂度、提升用户交互体验,并有效减少会话重试资源浪费。 目前,RocketMQ for AI 的核心特性已在阿里云云消息队列 RocketMQ 版产品中发布,后续将逐步贡献到开源社区。相关能力已在阿里巴巴集团内部以及阿里云大模型服务平台百炼、通义灵码等产品中经过大规模生产环境的验证,且取得显著成效,充分证明了其在高并发、复杂的 AI 场景下的成熟度与可靠性。 展望未来,我们将持续在 AI 领域进行技术迭代与创新,并积极与生态伙伴(如业务框架、AI 平台等)合作集成,共建高效、智能的 AI 应用基础设施,并逐步将经过阿里集团 AI 业务验证过的方案与特性,持续反馈到开源社区。 欢迎钉钉搜索扫码加入 RocketMQ for AI 用户交流群(群号:110085036316),与我们交流探讨~
查看全部文章
ABOUT US
Apache RocketMQ事件驱动架构全景图
微服务
Higress
Dubbo
Sentinel
Seata
Spring Cloud
Nacos
物联网
家电
汽车
穿戴设备
充电桩
工业设备
手机
事件驱动架构平台
RabbitMQ
Kafka
EventBridge
MQTT
RocketMQ
MNS
Apache RocketMQ as Core
计算
模型服务
函数计算
容器
存储
对象存储
数据库
NoSQL
分析
Flink
Spark
Elastic Search
事件
云服务器
对象存储
云监控
SaaS事件
通知
语音
短信
邮箱
移动推送

产品特点

为什么学习Apache RocketMQ

云原生
生于云,长于云,无限弹性扩缩,K8S 友好
高吞吐
万亿级吞吐保证,同时满足微服务于大数据场景
流处理
提供轻量、高扩展、高性能和丰富功能的流计算引擎
金融级
金融级的稳定性,广泛用于交易核心链路
架构极简
零外部依赖,Shared-nothing 架构
生态友好
无缝对接微服务、实时计算、数据湖等周边生态
浙ICP备12022327号-1120