
OpenAI联手硬件巨头推出MRC协议:终结GPU算力“空转”顽疾
5月6日,人工智能领域的领军企业OpenAI联合AMD、博通、英特尔、微软及英伟达等多家行业巨头,共同发布了一项名为“多路径可靠连接”(MRC)的全新开放网络协议。这一动作直击超大规模AI集群的痛点——GPU因网络数据等待而长期闲置浪费,其目标是构建一个更高效、更绿色的算力基础设施新标准。
MRC协议:从根源解决“数据等算力”的错配
在当前的AI大模型训练中,超大规模集群动辄使用数千甚至上万块GPU。然而,由于网络连接的波动或带宽分配不均,昂贵的GPU往往需要频繁等待数据传输,导致大量算力资源“空转”。MRC协议的核心创新在于通过提供更具可靠性的多路径连接方案,显著提升数据传输的稳定性。它不再依赖单一路由,而是动态利用多条路径保证数据流不中断,从而大幅降低因网络抖动造成的等待时间,从根本上去解决了功耗浪费和算力利用率低下的问题。
已秘密部署于旗舰集群:一场从内部验证的革命
值得注意的是,MRC协议并非纸上谈兵。OpenAI透露,该协议目前已在公司内部所有用于开发前沿模型的大型超级计算机中全面应用。这其中包括位于美国德克萨斯州阿比林的甲骨文云基础设施(OCI)站点,以及微软旗下的Fairwater超级计算机集群。这一事实证明了MRC协议在真实世界的极端工作负载下已经通过了可靠性验证。OpenAI选择将这些内部落地的实战经验开放给行业,无疑将加速整个生态的采纳进程。
行业影响:掌握AI时代的“网络话语权”
随着AI模型参数规模突破万亿级,底层基础设施的效率优化已成为大厂争夺的新战场。此次发布背后,OpenAI展现出的不仅是解决自身训练成本的技术方案,更可能是试图主导AI时代网络通信标准的前瞻性战略布局。联合硬件、芯片、云服务商一起发布开放协议,意味着它不满足于只做应用层玩家,而是要深入基础设施层定义规则。对于整个行业而言,MRC协议的公开,不仅意味着GPU集群将迈入更高效率的运行阶段,也预示着未来AI算力基础设施将朝着更开放、更协同的方向演进。未来,MRC或将成为超大规模智算网络的事实标准。


