国产算力突围:从芯片到网络的全链路破局

科技深水区 2026-03-14 09:21:26

最近两年,国产算力真是杀出来了——从底层芯片到连接算力的“大动脉”网络,再到能撑得起万卡集群的智算基建,以前被海外卡脖子的环节,正一个个被补上。 比如中科曙光今年发的scaleFabric高速网络,直接撕开了英伟达垄断的“最后一公里”;华为、摩尔线程的芯片,已经能撑得起万亿参数模型的训练;还有中兴的全栈AI体系,连家庭终端都做到了全球第一。 之前AI大模型练到万卡级别时,最头疼的就是网络延迟——延迟多100ns,训练效率能掉5%-8%。英伟达的IB网络本来是行业顶配,却被垄断着。 现在中科曙光的scaleFabric不一样,全栈自研的400G原生无损RDMA,时延低到0.9微秒,能撑11.4万卡的集群,成本还比同类产品降了30%。 这就像给万卡大军打通了直达前线的高速补给线,再也不用怕“后勤堵门”了。 光有网络还不够,算力集群得规模化才行。去年哈尔滨智算中心投了1.8万张国产加速卡,100%国产化,能搞万卡并行训练,断点续训只要几分钟。

除了基建,全栈AI能力也得跟上。比如中兴,从智算基建到终端都铺全了——芯片有AI交换和加速芯片,服务器在移动2025-2026年AI服务器集采里拿了一半份额;大模型做了“星云”,在SuperCLUE推理榜拿了总分第一,还覆盖了通信、工业、政务这些领域;超级智能体Co-Sight 2.0能让企业低门槛搞AI,甚至能“用AI生产AI”;家庭终端更厉害,连续五年全球第一,连AI手机助手都和豆包合作落地了系统级体验。 芯片是根基,现在国产芯片已经从“纸面参数”走到“实战验证”了。摩尔线程的MTT S5000单卡算力1000 TFLOPS,还和智源院一起完成了具身智能模型RoboBrain 2.5的训练,误差小于0.62%;华为昇腾910B的成本只有国际主流方案的38%,建同等规模集群能省45%的总拥有成本。 更关键的是生态——智谱AI的GLM-5已经适配了华为、摩尔线程、海光这些芯片,海光优化后吞吐量提了40%,华为昇腾和MindSpore框架配合,训练效率翻3倍。 现在很多智算中心用“异构部署”:英伟达保核心模型训练,国产芯片搞垂类模型微调,慢慢积累信任。

当然,突围之路也有难点:先进制程还得依赖海外设备,CUDA生态的护城河还在,芯片稳定性得经得起长期训练的考验——毕竟一次意外中断,可能让几个月的训练白费。 但政策已经在支持了,“十五五”规划把自主可控当核心战略,工信部也出台专项行动支持芯片突破。现在国产算力已经从“能用”变“好用”了,打破垄断不是遥不可及的目标,而是正在发生的进程。 从芯片到网络,从集群到生态,国产算力正在把“自主可控”从口号变成现实。接下来,就看这些技术怎么落地到更多行业——比如工业仿真、医疗影像、金融风控,真正让AI普惠到千行百业。你觉得国产算力下一个突破点会在哪?欢迎聊聊。

0 阅读:30
科技深水区

科技深水区

每天定时更新作品,感谢欣赏