博通Tomahawk 6芯片量产上市,让AI训练成本降低30%-40%
发布时间:
芯片大厂博通正试图在炙手可热的AI基础设施市场瓜分一块蛋糕。
当地时间6月3日,博通正式量产并交付其新一代数据中心交换机芯片——Tomahawk 6。这款芯片以单芯片102.4 Tbps的交换容量创下业界纪录,是现有以太网交换机带宽的两倍。这一突破性进展不仅标志着博通在AI基础设施领域的领先地位,也引发了全球科技巨头的广泛关注和抢购热潮。
据悉,AI训练除了需要更高算力之外,高性能网络也是必不可少的。随着大模型的训练需求不断增长,传统电交换芯片直接决定整机的交换容量、端口速率等核心性能指标,AI驱动的高速率交换芯片逐渐成为主流。而博通Tomahawk 6芯片的量产上市,不仅解决了AI算力瓶颈问题,还为全球科技巨头提供了高效、灵活的网络解决方案。
Tomahawk 6专为下一代可扩展和AI优化的网络环境设计,旨在解决AI训练和推理过程中GPU间通信的瓶颈问题。当配备10万+GPU的超级计算机运行时,性能瓶颈往往不在计算芯片本身,而在于GPU之间的通信速度——这正是Tomahawk 6的研发初衷。通过提升GPU间的通信效率,Tomahawk 6为AI训练和推理运算提供了更高效的解决方案,减少了基础设施的冗余。
Tomahawk 6采用台积电3纳米工艺制造,相比前代Tomahawk 5的5纳米工艺实现了制程升级,进一步提升了性能和能效。其单芯片支持100G/200G SerDes和共封装光学模块(CPO),提供更高的灵活性和更低的延迟。此外,Tomahawk 6还支持1,024个100G SerDes的突破性选项,以及共封装光学选项,提供最低功耗、延迟和长期可靠性。
据博通核心交换机业务高级副总裁拉姆-维拉加(Ram Velaga)介绍,当前AI计算依赖GPU集群,但网络传输效率不足导致GPU利用率普遍低于40%。Tomahawk 6通过消除数据传输瓶颈,使GPU集群的实际算力释放效率提升至90%以上,为万亿参数大模型的训练与推理提供基础支撑。
Ram Velaga透露,单颗新芯片即可完成六颗前代芯片的工作量,这意味着在GPU数量不变的情况下,可实现更快的AI训练、更高效的推理运算,同时降低基础设施冗余。
在价格和效率方面,博通称将通过技术溢价策略将芯片售价控制在2万美元以下,并提供批量采购折扣。分析机构指出,Tomahawk 6的推出或使AI训练成本降低30%-40%。
目前,包括顶级云服务商和网络设备公司在内的早期客户,已开始部署这款芯片来组建全球最大规模的GPU集群。
虽然未透露具体客户名称,但维拉加暗示已有超过10万张GPU的部署案例。这表明当前AI算力市场正在向超大规模GPU集群发展。通常情况下,每10张GPU就需要配置一台交换机,因此10万张GPU的集群将需要约1万台交换机。这一需求不仅推动了交换机市场的增长,也对光模块、网络架构等基础设施提出了更高要求。
此前,博通也预计,到2027财年,仅其三大超大规模客户的AI相关市场机会(SAM)将达到600亿至900亿美元。