最新文章

2025年10月23日

2025 OSCAR丨与创新者同频!Apache RocketMQ 邀您共赴开源之约
10 月 28 日,北京将迎来开源行业的一场重磅盛会——2025 OSCAR 开源产业大会。 本次大会汇聚全球开源领域的思想领袖、技术专家、企业高管以及创新实践者,围绕开源技术的未来、产业创新及生态协同展开深度讨论。 大会将围绕人工智能开源、软件供应链安全、开源商业化等多个核心议题展开深度对话,通过顶级专家的演讲、精彩的分论坛以及技术展示,与会者将获得关于开源技术的最新洞察和行业趋势,并探索开源技术如何在数字化转型、行业创新及社会价值创造中发挥关键作用。 现在,我们诚挚邀请您参与 OSCAR 开源产业大会,与开源人相聚,与创新者同频,一起探索开源技术的发展,共同见证开源生态的繁荣。 关于 OSCAR “OSCAR 开源产业大会”是由中国通信标准化协会主办,中国信息通信研究院承办,中国信息通信研究院云计算开源产业联盟、金融行业开源技术应用社区、通信行业开源社区、科技制造开源社区、汽车行业开源社区、可信开源社区共同体、可信开源合规计划支持的开源领域顶级盛会。 大会旨在汇聚全球开源领域的专家、学者、企业代表及社区成员,共同探讨开源技术的最新趋势、治理实践,以有效应对技术风险、法律合规、供应链韧性和人才短缺等挑战,从而寻求推动中国开源生态健康、有序发展的策略,促进开源与产业深度融合,为全球开源事业的繁荣贡献中国的智慧与力量。 开源项目及商业化论坛 Apache RocketMQ 议题 AI 应用的高延迟、长周期、强状态和资源密集等特性,对底层基础设施提出了前所未有的工程挑战。 传统消息队列在应对 AI 原生(AINative)场景的动态性、状态性和资源敏感性方面已显局限,面对这一变革,ApacheRocketMQ 完成了战略性升级,从传统消息中间件演进为面向 AI 时代的消息引擎。 本次分享将介绍如何基于 Apache RocketMQ 的新特性构建异步化 MultiAgent 系统,深入探讨 Agent 间的异步通信、上下文隔离、状态恢复与任务编排机制,并通过实际案例展示如何利用 RocketMQ 实现 MultiAgent 的任务调度。 (温馨提示:大会开源集市设置了 Apache RocketMQ 展位,欢迎前来交流,参与有奖互动~) 报名链接 扫描下方二维码 或【】立即报名 大会议程

2025年9月28日

海量接入、毫秒响应:易易互联基于 Apache RocketMQ + MQTT 构筑高可用物联网消息中枢
易易互联:打造安全、便捷、便宜的智能换电网络 易易互联科技有限公司成立于 2017 年,是吉利集团旗下汽车产业战略布局换电生态的全资子公司。依托吉利正向开发的 GBRC 换电平台架构,基于电池共享、车辆全生命周期运营,沉淀千项专利技术,积极参与国家换电标准制定,打造安全、便捷、便宜的智能换电网络,为营运市场提供更降本、更高效、更绿色的综合解决方案,让换电成为营运补能第一选择。 截至 2025 年 4 月,易易互联已布局和运营超 470 座换电站,覆盖了重庆、杭州、广州、成都、天津等 40 多个城市。计划到 2027 年,在全国建设并运营 2000 座换电站。 业务挑战:物联网通信架构如何支撑大规模换电网络? 随着换电网络的快速扩张,终端设备数量呈指数级增长,对底层物联网通信架构提出了前所未有的挑战。易易互联在采用 MQTT 协议支撑智能换电系统的过程中,面临三大核心业务难题: 1. 海量设备高并发连接与系统稳定性挑战 每座换电站集成机械臂、电池仓、充电模块、车辆识别系统、温控系统等多种物联网设备,同时需接入数万辆支持换电的营运车辆,形成一个终端数量庞大、分布广泛、持续在线的超大规模物联网网络。在此背景下,MQTT 服务必须支持数十万级设备的长连接并发接入。任何连接抖动或异常中断,都可能导致换电流程失败、车辆排队积压,严重影响用户体验。尤其在运营高峰时段,连接稳定性直接关系到换电效率与服务可用性,一旦出现系统级服务中断,将造成巨大的损失。 2. 高实时性与低延迟通信的严苛要求 换电流程高度依赖自动化与系统协同:从车辆进站识别、人车电池三者信息核验,换电指令下发、机械臂执行操作、车辆驶离,支付结算完成,整个流程需在几十秒内高效闭环。这对通信链路的实时性与端到端延迟控制提出了极高要求。尽管 MQTT 协议支持 QoS 机制保障消息可靠性,但在复杂场景下,仍可能出现延迟上升、响应滞后等问题。如何在确保消息不丢失的前提下,实现毫秒级指令响应与状态同步,成为系统架构设计的核心技术难点。通信延迟过高将直接拉长单次换电耗时,降低站点吞吐能力,削弱“高效补能”的核心竞争力。 3. 数据洪峰冲击与消息积压风险 在早晚交接班等用电高峰时段,多个换电站可能同时迎来大量车辆集中换电,短时间内产生海量设备状态数据上报,包括电池 SOC、温度、健康状态(SOH)、换电次数、故障码等关键信息。这种瞬时数据洪峰对 MQTT Broker 的消息吞吐能力构成巨大压力。若后端的数据分析、计费系统、调度平台等消费端处理能力不足,极易导致消息在 Broker 端积压,造成数据处理延迟。这不仅影响电池调度策略的实时优化和异常预警的及时触发,还可能引发计费延迟或错误,进而导致用户投诉,损害服务可信度。 综上所述,易易互联的业务高速增长对 MQTT 通信平台提出了“高并发、低延迟、强可靠、大吞吐”的综合要求。如何构建一个稳定、高效、可扩展的物联网消息中枢,已成为支撑其全国换电网络规模化运营与智能化升级的关键基础设施挑战。 解决方案:基于阿里云 MQTT+RocketMQ构建物联网消息中枢 为应对上述挑战,易易互联依托阿里云消息队列 MQTT 版与云消息队列 RocketMQ 版,构建了“边缘高效接入 + 中心弹性处理”的物联网通信新范式,全面提升系统的稳定性、可扩展性与业务连续性。 1. 基于阿里云 MQTT,实现海量终端的高效、稳定接入 阿里云消息队列 MQTT 版具备百万级并发连接能力与高可用集群架构,完美匹配易易互联换电站规模、数十万终端设备(换电站设备 + 营运车辆)的规模化接入需求。 + 高并发长连接支持 :通过云消息队列 MQTT 版的分布式集群架构,轻松支撑数万至数十万设备的稳定长连接,确保换电站机械臂、电池仓、温控系统及车辆终端始终在线、指令可达。 + 弱网优化与断线重连 :云消息队列 MQTT 版内置智能心跳机制与断线自动重连策略,有效应对地下车库、郊区等弱网环境,保障换电流程不因网络抖动中断。 + 端到端安全认证 :云消息队列 MQTT 版支持基于 X.509 证书、Token 的设备级身份认证,结合 Topic 级别的访问控制策略(ACL),杜绝非法设备接入,保障电池资产与系统安全。 2. 集成阿里云 RocketMQ,实现消息缓存与负载均衡 在高并发换电场景下,瞬时数据洪峰易导致后端系统过载。通过将阿里云消息队列 MQTT 版的消息流转至云消息队列 RocketMQ 版 ,构建“MQTT 接入 + RocketMQ 中转”的协同架构,实现消息的高效解耦与弹性处理。 + 消息缓冲与削峰填谷 :当早晚高峰出现大量车辆集中换电时,云消息队列 MQTT 版将设备上报的状态数据(如电池 SOC、温度、故障码)实时转发至云消息队列 RocketMQ 版。RocketMQ 作为高性能消息中间件,可缓冲突发流量,避免后端计费、调度、监控系统因瞬时压力过大而崩溃。 + 异步解耦与负载均衡 :后端业务系统(如电池调度平台、故障预警引擎、用户计费系统)以订阅方式从云消息队列 RocketMQ 版消费消息,实现生产与消费的异步解耦,提升系统整体吞吐能力与响应速度。 + 消息有序与可靠投递 :针对换电流程中的关键指令(如“换电抬杆”、“开始换电”、“电池锁定”),可通过云消息队列 RocketMQ 版的顺序消息能力保障执行顺序;结合事务消息机制,确保支付结算等关键操作的最终一致性。 业务价值:海量接入、实时响应、弹性处理、安全可信 面对换电生态高速发展的通信挑战,易易互联通过采用阿里云 MQTT + RocketMQ 的融合解决方案,成功构建了“海量接入、实时响应、弹性处理、安全可信”的物联网通信底座。该架构不仅显著提升了系统稳定性与可扩展性,更保障了高并发场景下的业务连续性,为实现“让换电成为营运补能第一选择”的战略目标提供了坚实的技术支撑。 核心业务价值如下: + 实现实时数据处理 :阿里云 MQTT 通过轻量级发布/订阅模式,实现终端设备与云端的毫秒级通信,确保换电状态、车辆行为、电池健康等数据的实时采集与响应,支撑全流程可视化与自动化控制。 + 实现高度可扩展性 :支持横向弹性扩展,轻松应对从 470 座到 2000 座换电站的设备接入需求,无需重构通信架构,支撑业务持续扩张。 + 保障系统可靠性与稳定性 :MQTT 支持多级 QoS 服务质量,结合 RocketMQ 的持久化与重试机制,确保关键消息不丢失、不重复,保障计费准确、指令可靠、资产安全。 + 提升整体性能与吞吐能力 :RocketMQ 的集群消费模式提供原生负载均衡机制,支持多消费者并行处理,显著提升后端系统的消息处理效率,确保高并发场景下的高效稳定运行。 展望未来,随着易易互联向“2027 年在全国建设并运营 2000 座换电站”的目标稳步迈进,这套基于阿里云构建的物联网消息中枢将持续发挥其核心引擎作用。它不仅为当前的业务运营提供了坚实保障,更为未来的智能化升级奠定了核心基础。易易互联与阿里云的成功合作,不仅是技术与业务的深度融合,也为整个新能源换电行业树立了数字化转型的标杆。通过持续的技术创新与架构演进,易易互联正加速推动其“让换电成为营运补能第一选择”的愿景成为现实,引领绿色出行新时代。

2025年9月28日

构建企业级 AI 应用:为什么我们需要 AI 中间件?
前言 9 月 26 日,2025 云栖大会 AI 中间件:AI 时代的中间件技术演进与创新实践论坛上,阿里云智能集团资深技术专家林清山发表主题演讲《未来已来:下一代 AI 中间件重磅发布,解锁 AI 应用架构新范式》,重磅发布阿里云 AI 中间件,提供面向分布式多 Agent 架构的基座,包括:AgentScopeJava(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。阿里云 AI 中间件核心技术全面开源,全面拥抱行业标准,加速企业级 AI 应用规模化落地。 AI Agent 大爆发 自从 ChatGPT 掀起了大模型浪潮,短短三年间,AI 技术几乎以月为单位迭代:从能对话、写文案的 Chatbot,进化到协助编码与办公的 Copilot,如今进一步迈向具备自主规划、工具调用、记忆与协作能力的 Agent。AI 不再只是“会说话的软件”,而是能理解目标、拆解任务、选择策略并执行的 “ 行动主体 ”,能够在复杂场景中进行多轮推理与闭环反馈。 如果说 2022 年是 Chatbot 的起点,2023 年是 Copilot 的浪潮,那么 2025 年,注定是 Agentic AI 全面爆发的元年。我们来回顾一下近几年的演进路线图。 + 2022 年,Chatbot 进入大众视野。以 GPT3 为代表,大家用它生成文本、做自然语言交互——简单客服、文案写作是典型场景。但它仍然是“被动应答”。 + 2023 年,Copilot 革命来了。GPT4 带来更长上下文、多模态输入,加上检索增强(RAG)的成熟,让 AI 从“被动回答”升级为“主动协作”。开发者使用代码 Copilot,写代码效率可以提升 50% 以上;Office Copilot 深度融合 AI 技术于 Word、Excel、PPT 等应用中,深刻改变传统办公模式,大幅减少重复性工作。AI 开始深度融入企业核心工作中。 + 2025 年,我们将迎来“能理解、会规划、能协作、敢行动”的 Agentic AI 的集中爆发。一方面,从 GPT5、Qwen3 到 DeepSeek,模型在自主规划、多模态融合能力上高速发展;另一方面,针对 Agent 和工具的集成,多 Agent 通信的能力,也在走向标准化,如 MCP、A2A 标准。应用层面,人形机器人走上春晚舞台;企业里的“数字员工”开始上岗,如财务 Agent 能够自动审批流程,AI 的角色从辅助者走向“能自主决策、能自动闭环”的主体。 有几组数字也在印证这一发展趋势:根据 Gartner 行业报告,全球 Agent 市场正以 44.5% 的年复合增长率扩张,预计到 2028 年将达到近三千亿美元规模;将有超过 15% 的企业日常决策由 Agent 自主完成;而有三分之一的企业软件,会原生嵌入 Agentic AI 能力。 这不是一阵风,而是一个长周期的结构性趋势。技术、政策、市场这三股力量,正在同频共振,形成加速度。 1. 技术突破:开源模型的迅速成熟降低了门槛,推理成本呈断崖式下降,多模态和大小模型的协同拓宽边界。这让 Agent 不再是“概念验证”,而是可以规模化落地。 2. 政策引导:中国“十四五”明确把 AI 纳入新基建,国务院“人工智能+行动意见”为中国 AI 产业指明方向;美国、欧盟也在同步发力,形成全球共振。 3. 市场需求:企业端急需提效降本,消费端渴望更沉浸的体验,资本市场面向 AI 赛道持续加码,大量 AI 创业公司涌现。 技术降低门槛,政策扫清障碍,市场反哺研发,形成闭环。算法、算力与场景叠加,AI 从实验室跃迁万千行业,已经势不可挡。 过去十年企业为了拥抱移动互联网浪潮,实现数字化转型,纷纷投入云原生应用的研发;而今天,企业要抓住 AI 的浪潮,实现智能化转型,更需要投入 AI 原生应用的研发,把 AI 的能力融入到自己的核心业务中。 AI 原生应用架构 AI 原生应用是指从架构设计到功能实现均以人工智能技术(大模型)为核心驱动力的应用。它将 AI 能力深度嵌入系统底层,通过数据驱动决策、动态模型演化和端到端 AI 流程重构业务逻辑。 和传统应用相比,它带来四方面的根本性变化。 + 第一是交互界面。过去我们点击按钮、填写表单;现在我们对话、拖拽、上传图像或音频,进行多模态的“共创”。 + 第二是业务逻辑。过去是规则驱动、静态代码、确定性执行;现在是数据驱动、动态推理、概率性决策,系统可以在不确定中找到更优路径。 + 第三是技术栈。传统的“微服务+关键词检索+关系型数据库+CPU”的组合,正被“Agent 智能体+语义检索+知识图谱+向量数据库+GPU”所取代。 + 第四是架构哲学。以前我们用 RPC、消息队列把微服务拼接起来;现在以 Agent 为执行单元,用上下文工程、记忆机制、工具调用来实现自主决策与行动。我们从“流程自动化”迈向“认知自动化”,软件范式从“人适应机器”,转向“机器理解人”。 这场变革不是空中楼阁,它有一条清晰的历史脉络。 回看传统应用架构的演进,从单体到微服务再到云原生,本质是业务复杂度上升和技术红利出现的合力。早期的单体应用,只要把交易、商品、支付、物流这些核心功能堆在一起就够了。但移动互联网爆发后,业务碎片化、场景多样化,迫使我们用微服务把系统“解耦”,让不同团队能并行迭代,敏捷开发;海量访问压力需要系统能够灵活弹性扩展;基于云计算提供的弹性基础设施,结合微服务、容器技术、和可观测体系,则让资源调度更智能、故障恢复更自动。那是一条从“大泥球”走向“乐高拼装”的道路,也为今天的 AI 原生应用打下了分布式协作的基石。 AI 应用自身也在沿着一条清晰的路径进化:从单体的 Chatbot,走向分布式的 Agentic AI。 业务层面的驱动力是,从“对话”走向“行动”。单体 Chatbot 只能回答问题;而在很多企业里,我们需要 AI 深度参与业务流程,承担企业不同业务模块的职责,不同业务板块有不同的上下文、工具、业务流程,大模型在注意力聚焦的情况下具备更好的准确性,这就推动架构走向多 Agent 协作,每个 Agent 专注于自己的核心能力。比如我们要构建一个全栈 Web 开发平台,支持用户用自然语言构建 Web 应用,Agentic AI 将构建一个“数字员工团队”,包含开发 Agent、产品 Agent、文档 Agent,多 Agent 自动协作,最终完成构建 Web 应用的完整任务。 技术层面,这种升级依赖几个关键突破:模型从理解到规划,从“会答”到“会想”(比如深度思考模式、ReAct);Agent 范式形成统一认知,它是一个具备“感知—决策—执行”能力的实体,记忆层存储历史经验(向量库+KV),决策层由大模型驱动进行规划(ReAct、思维链),行动层通过工具调用与多 Agent 协作来完成;关键标准也在逐渐形成,如 MCP 让智能体工具调用有了通用标准,A2A 把智能体分布式协作也定义了统一语言;而云原生能力,让这些智能体可以充分利用云的弹性能力,按需弹性、按量付费。 但是,要构建企业级 AI 应用,远不止“会调几个大模型 API”这么简单,将面临以下几个挑战。 + 第一类是开发效率。今天做一个像样的 Agent,往往要手工编织记忆、决策、工具调用的细节,缺少开箱即用的框架和工具,开发效率不高。更不用说随着业务发展,AI 应用持续扩展业务能力,如何实现业务敏捷迭代也是个难题。 + 第二类是集成。要提升模型准确性以及业务深度融合,不可避免要采用上下文工程技术,引入 RAG 架构。RAG 架构往往涉及多源数据接入,数据 ETL。要构建实时可用的企业知识库,将面对异构系统对接、数据治理等复杂工程。更别提如何让全新的 AI 应用和存量的传统系统交互集成,如何将存量系统纳入 Agent、MCP 的集成体系。 + 第三类是稳定运行和持续优化。多 Agent 协作带来复杂的调用链路,推理 Tokens 流量波动大,延迟不可控,传统体系难以灵活弹性扩展;稳定与安全也充满风险——模型幻觉可能造成决策偏差,工具调用可能越权,A2A 通信链路里可能泄露敏感数据;更糟糕的是,可观测性不足,一旦出现故障,你将在 10 个 Agent 协同的链路里找不到故障点。没有评估体系,很难衡量 Agent 的决策质量;数据质量会随着业务环境变化而衰减;模型一旦迭代,推理行为也可能漂移,今天还很稳的客服 Agent,明天可能输出不合规的内容。 而这些问题,单靠大模型内置的能力解决不了,它们需要一整套工程化、平台化的“中间层”来承接。 而这个中间层便是 AI 中间件的定位。它在 AI 应用与大模型之间,承担三件事。第一是连接与集成:把大模型、工具链、数据存储、微服务这些碎片打通,让 Agent 可以无缝调用知识、使用工具、对接业务。第二是能力抽象:把 A2A 通信、状态管理、数据集成这些“非业务共性能力”封装起来,屏蔽底层复杂度,让开发者聚焦业务。第三是工程化支撑:提供可观测、安全治理、弹性扩缩容等企业级能力,保障生产环境的稳定性与高效运维。 为什么说它是规模化落地的最后一块拼图?很简单。它能帮你突破 POC 陷阱——很多原型之所以上不了线,不是因为算法不行,而是工程体系不行。换句话说,AI 中间件是企业级 AI 应用的“操作系统”。它把 Agent 从“技术概念”变成“真正的生产力引擎” ,打通落地的最后一公里。 阿里云 AI 中间件全新发布 为了应对规模化落地企业级 AI 应用的挑战,我们发布了全新的阿里云 AI 中间件,它是一个面向分布式多 Agent 架构的基座,核心技术全面开源,全面拥抱行业标准。 它包括:AgentScopeJava(兼容 Spring AI Alibaba 生态),AI MQ(基于Apache RocketMQ 的 AI 能力升级),AI 网关 Higress,AI 注册与配置中心 Nacos,以及覆盖模型与算力的 AI 可观测体系。 我们的目标是:把复杂留下,把标准、能力、工具开放出来,让企业不用重复从头搭架子。 AI 编程框架AgentScope 首先是 AI 编程框架,Spring AI Alibaba 内核正式升级为 AgentScopeJava,这是 Java 生态拥抱 Agentic AI 的重要里程碑。对数百万 Java 开发者来说,一套熟悉的开发范式,就能构建企业级智能体应用。AgentScopeJava 为 Java 开发者提供最低学习门槛的 AI 开发框架。 它的架构有两层,在核心编排层,提供 Agentic API,开发者能够声明式地定义 Agent 的记忆、决策、工具调用等能力,代码复用明显提升;原生支持 MCP 协议,便于扩展工具与伙伴智能体;支持流式通信,端到端的交互延迟显著降低;支持 Humanintheloop,把关键决策交回给人审核。在安全运行时层面,它提供沙箱隔离,阻断越权工具调用;提供上下文管理,动态维护短期状态与长期记忆;并且原生支持 A2A,实现分布式多 Agent 自动编排与协作。 AI MQApsaraMQ 再说 AI 通信与集成的“中枢”——AI MQ。传统消息队列是为交易类、日志类场景设计的,到了 Agent 时代,它们很多特性不够用,因此我们对 ApsaraMQ 面向 Agentic AI 做了全方位能力升级,ApsaraMQ 是基于 Apache RocketMQ 构建的云原生消息服务。 在消息存储引擎(Apache RocketMQ 内核)方面,支持百万级 Topic 资源管理、百万级队列存储、百万级订阅分发。 得益于消息存储引擎的增强,我们推出了面向 AI 场景的消息模型 LiteTopic,它具备轻量资源、有状态异步通信的特性,可实现 AI 多轮对话 Session 保持、Session 级顺序流式输出、Agent 2 Agent 的可靠通信、多模态大消息体(50MB 以上)。提供面向 AI 稀缺算力的消费调度模式,包括优先级、定速、权重等模式,最大化资源有效利用率。提供 AI 数据集成,支持多数据源实时构建知识库,构建实时 RAG 架构;支持事件流异步推理,批量异步推理;支持流式 AI ETL 处理。 聊到分布式多 Agent 架构,就必须说 A2A 通信机制。目前在分布式多 Agent 通信实现上,一开始往往采用同步调用的方式,一旦业务继续发展,Agent 之间的交互、依赖关系也会变得更加复杂。同步调用的模式将面临多重痛点: + 多 Agent 多次 LLM 调用,全同步调用延迟高,降低客户体验。 + 上下游 Agent 吞吐量难以完全对齐,易出现部分 Agent 流量过载、雪崩。 + AI 任务涉及多 Agent 协作完成,单点 Agent 失败,没有可靠重试,导致任务整体失败,浪费中间过程的算力资源多。 + Agent 调用同步强依赖,如串联电路,可用性降低。 + 在算力资源不足的情况下,Agent 无法实现任务优先级处理。 基于 AI MQ 的全新特性 LiteTopic 实现 A2A 可靠异步通信模式则可以免除这些痛点,让系统具备更好的可扩展性: + 主 Agent 任务规划完成,可异步并发请求多个 Agent,缩短任务完成时间。 + Agent 解除调用强依赖和吞吐量强依赖,可用性提升。 + Agent 通信的请求和处理结果均持久化到 MQ,具备 checkpoint 能力,基于 MQ 的可靠重试,无中间资源浪费。 + 有限资源下,Agent 支持按优先级处理任务,比如优先处理付费用户。 + 基于 1 对多的发布订阅通信模式,系统具备良好的扩展能力,可以异步构建历史对话存储、Agent 记忆等。 AI 网关Higress 第三块是 AI 网关 Higress。它提供统一接入与管理,能同时接入不同的大模型、MCP 服务、Agent,做协议兼容与流量调度,实现智能路由与负载均衡。在 LLM 层,统一调度通用大模型与垂类小模型,支持语义缓存和灾备降级;在 MCP 层,支持通过协议转换复用存量微服务,让企业多年积累的数字化资产快速转换为 AI Agent 的工具;在 Agent 层,提供 REST 到 A2A 的协议桥接,打通传统微服务与智能体协作。 它也具备企业级安全治理能力,包括 Token 限流、敏感信息过滤、WebSocket 无损变更、零信任鉴权,保障服务稳定与数据安全。 最新版的 Higress 还发布了 AI 开放平台 HiMarket,让企业可以把自有 Agent/MCP 服务标准化发布,按调用量进行精细化运营。 AI 注册/配置中心Nacos 第四块是 AI 注册和配置中心 Nacos。在微服务时代,Nacos 国内市场占有率高达 70% 以上,包含 Azure 在内的海内外主流云厂商都提供了 Nacos 托管产品。面向 AI 时代的今天,Nacos 3.1.0 版本重磅发布,围绕 AI Agent 解决 AI A2A 场景和 AI Tools 场景的问题。 在 AI 工具方面,Nacos 支持了 MCP Registry 官方协议,无需任何代码改造,就能将传统应用快速转变为 MCP Server 并动态统一管理。 在多 Agent 协作方面,Nacos 是首个支持 A2A 协议的注册中心。Agent 可以将描述自身能力的 AgentCard 注册到 Nacos,其他 Agent 只需填写 Nacos 地址,即可实现分布式多 Agent 的能力编排,让 Agent 的分布式协作,像普通应用一样的顺滑和稳定。 在配置管理方面,AI 时代下,API Key 等凭证的安全至关重要。Nacos 提供动态加密配置能力,支持敏感数据的加密存储与安全推送,有效保障 AI 资产的安全性。此外,基于 Nacos 的动态配置推送能力,还能实现 Agent 能力的动态更新——无需重新部署,即可灵活调整 Agent 运行时的配置。 AI 可观测 第五块是AI 可观测。做 AI 应用的同学都有体会:传统可观测体系,面对大模型与智能体协作,往往力不从心。我们做的是一次“从 IaaS 到 MaaS”的全栈、一体化进化,目标是为企业提供一个智算应用的“上帝视角”。这个体系有四根支柱: + 端到端诊断:对主流 Agent 与应用框架实现无侵入追踪,不管是复杂的 RAG,还是多 Agent 协作,都能把调用链清清楚楚地呈现出来,帮助快速定位故障与性能瓶颈。 + 全栈智算监控:从底层 GPU、网络、存储,到容器编排,再到模型推理、训练,以及上层应用与智能体交互,建立多维度的指标与日志体系,实时感知全局健康度。 + 精细成本管理:对 Token 消耗、GPU 利用率做多维分析,与网关联动支持预算限额、访问限流、智能路由,帮助企业在探索 AI 价值的同时,把成本效益做到最好。 + 质量与安全评估:覆盖从输入、规划到输出的全流程,自动化评估语义准确性、内容质量、偏见与安全风险,为上线运行提供“持续体检”,让输出更安全、更可控、更合规。 展望 AI 从来不是一个单点技术,而是一张系统工程的“网”。大模型是大脑,工具是四肢,数据是血液,算力是肌肉,而中间件,是把这一切组织起来的“神经系统”和“骨架”。阿里云 AI 中间件核心技术目前已全面开源,包括 Nacos、Higress、Apache RocketMQ、AgentScopeJava 等等,未来也将持续围绕开源生态和社区开发者一起共建、共同成长。我们相信,只有把标准和能力开放出来,行业才会更快地形成“共识与共用”,企业才会更专注于业务创新,少做重复劳动。我们愿意和用户、社区一起,推动下一代 AI 基础设施的标准化、工程化。 未来两三年,我们将见证越来越多的企业,从一个个“单体 Chatbot”,走向一个个“可协作、可演进、可闭环”的数字员工团队;我们也将见证 AI 在生产线、仓储、金融风控、客服中台、研发协作等场景的落地,真正带来效率、质量与体验的跃迁。
查看全部文章
ABOUT US
Apache RocketMQ事件驱动架构全景图
微服务
Higress
Dubbo
Sentinel
Seata
Spring Cloud
Nacos
物联网
家电
汽车
穿戴设备
充电桩
工业设备
手机
事件驱动架构平台
RabbitMQ
Kafka
EventBridge
MQTT
RocketMQ
MNS
Apache RocketMQ as Core
计算
模型服务
函数计算
容器
存储
对象存储
数据库
NoSQL
分析
Flink
Spark
Elastic Search
事件
云服务器
对象存储
云监控
SaaS事件
通知
语音
短信
邮箱
移动推送

产品特点

为什么学习Apache RocketMQ

云原生
生于云,长于云,无限弹性扩缩,K8S 友好
高吞吐
万亿级吞吐保证,同时满足微服务于大数据场景
流处理
提供轻量、高扩展、高性能和丰富功能的流计算引擎
金融级
金融级的稳定性,广泛用于交易核心链路
架构极简
零外部依赖,Shared-nothing 架构
生态友好
无缝对接微服务、实时计算、数据湖等周边生态
浙ICP备12022327号-1120