英伟达(NVDA.US)Rubin有望提前半年问世 AI算力新纪元行将到来?
(原标题:英伟达(NVDA.US)Rubin有望提前半年问世 AI算力新纪元行将到来?)
智通财经APP获悉,有媒体征引知情东谈主士涌现的音书报谈称,天下AI行业无比期待的英伟达(NVDA.US)下一代AI GPU架构——“Rubin”架构,可能将提前六个月,即2025年下半年负责发布。固然Blackwell架构AI GPU仍未大鸿沟发货且被爆出头临散热问题,但英伟达似乎强硬加速其AI GPU发展道路图,靠近AMD、亚马逊以及博通等AI芯片竞争敌手发起的强横攻势,这家“绿色巨东谈主”试图强化它在数据中心AI芯片市集的悉数主导地位。英伟达现时在该市集号称“操纵”,占据80%-90%份额。
尽管 Blackwell 架构AI GPU可能来岁第一季度才调在台积电、鸿海、纬颖以及纬创等稠密中枢供应商皆心合力之下已毕大鸿沟量产,关联词跟着谷歌、亚马逊等云巨头自研AI芯片波澜席卷而来,英伟达当今比以往任何时候都愈加起劲于在数据中心AI芯片市聚集保执主导地位。对于英伟达激动们来说,他们也需要新的催化剂推动英伟达股价向200好意思元发起冲击。
包括OpenAI以及微软在内的稠密AI行业领军者,以及摩根士丹利等华尔街投行们仍是运转接洽英伟达下一代架构Rubin的性能将若何建壮。一些产业链分析东谈主士觉得依托共同封装光学(CPO)技能以及HBM4,加之台积电3nm以及下一代CoWoS先进封装所打造的Rubin架构AI GPU号称“史无先例的性能”,有可能开启AI算力全新纪元,竞争敌手们可能需要耗尽数年时分来进行追逐。
确认产业链知情东谈主士涌现的音书,英伟达Rubin架构的产物线原定于2026年上半年推出,现已条件供应链开启提前测试责任,力求提前至2025年下半年负责推出。由于OpenAI、Anthropic、xAI以及Meta等东谈主工智能、云规画以及互联网大厂们对于AI持重/推理算力简直无尽头的“井喷式需求”,迫使英伟达以更快速率推出性能更高、存储容量更弘大、推理后果更建壮且愈加节能的下一代AI GPU的研发程度。这家绿色巨东谈主试图加速不同AI GPU架构之间的更新节拍。
固然英伟达官方未进行回报,关联词从存储芯片制造巨头SK海力士(SK Hynix)上月初涌现的可能提前坐褥委派HBM4的音书来看,对于Rubin音书的真确性绝顶高。HBM通过3D堆叠存储技能,将堆叠的多个DRAM芯片全面贯串在沿途,通过微弱的Through-Silicon Vias(TSVs)进行数据传输,从辛勤毕高速高带宽的数据传输,使得AI大模子能够24小时不阻隔地更高效地运行。
据了解,SK集团董事长崔泰源在11月初给与采访时暗示,英伟达首席践诺官黄仁勋条件SK海力士提前六个月推出其下一代高带宽存储产物HBM4。行为英伟达H100/H200以及近期运转坐褥的Blackwell AI GPU的最中枢HBM存储系统供应商,SK海力士一直在引颈天下存储芯片产能竞赛,以餍足英伟达、AMD以及谷歌等大客户们餍足对HBM存储系统的爆炸性需求以偏激他企业对于数据中心SSD等企业级存储产物的需求,这些存储级的芯片产物对于处理海量数据以持重出愈发建壮的东谈主工智能大模子以及需求剧增的云霄AI推理算力而言号称中枢硬件。
在对于Rubin的最新音书出炉之前,英伟达面前正处于“一年一代际”的AI GPU架构更新节拍中,这意味着该公司每年都会发布新一代架构的数据中心AI GPU产物,这即是为什么Ampere、Hopper和Blackwell架构之间都有长达一年的间隔;联系词,对于Rubin,这种情况可能澈底改动。
知情东谈主士并未说起英伟达为何要提前推出Rubin的具体原因,仅仅将其归类为一项交易举措。联系词,如若咱们从供应链角度来看,Rubin预计将接管台积电的3nm工艺,以及存储领域具有划时间意念念的HBM4,加上可能是天下首个选拔CPO+硅晶圆封装的数据中心级别AI芯片,这些最关节的中枢法子要么仍是运转准备——比如台积电3nm准备就绪、HBM4可能仍是处于测试法子,要么已细目能够已毕量产,比如CPO封装。因此,鉴于英伟达可能仍是为Rubin配备了悉数“器具”,黄仁勋可能觉得在2026年发布Rubin不太合乎。
确认英伟达在GTC表示的产物道路,Blackwell升级版——“Blackwell Ultra”产物线,即“B300”系列的初度亮相,英伟达打算在2025年中期发布该系列。因此,咱们可能将看到Blackwell Ultra与Rubin发布的时分点绝顶围聚。面前发布战略尚不解确,但Wccftech以及The Verge的一些专科东谈主士暗示,英伟达可能将要点放在Rubin架构,将B300系列视为过渡产物。按照英伟达成例,预计该公司很快会将发布更多更新,可能是在2025年外洋消费电子展(CES)前后。
Blackwell仍是绝顶建壮! 但Rubin,或将开启AI算力新纪元
Blackwell架构AI GPU系列产物,毫无疑问是现时AI算力基础次序领域的“性能天花板”。在Blackwell出炉前,Hopper也一度被视为算力天花板,而在CPO以及3nm、比较于HBM3E性能大幅增强的HBM4,加之下一代CoWoS加执下,暂不讨论Rubin自己的基础架构升级,Rubin芯片性能可能仍是强到无法假想。对于英伟达事迹预期来说,Rubin或将推动华尔街大幅上调2026年基本面预计。
行为基准对标,Blackwell性能仍是比Hopper强盛得多,在MLPerf Training基准测试中,Blackwell在GPT-3预持重负务中每GPU性能比Hopper大幅普及2倍。这意味着在一样数目的GPU下,使用Blackwell不错更快地完成模子持重。对于Llama 2 70B模子的LoRA微调任务,Blackwell每GPU性能比Hopper普及2.2倍,这标明Blackwell在处理特定高负载AI任务时具备更高的后果。MLPerf Training v4.1 中,图形神经蚁集以及Text-to-Image基准测试方面,Blackwell每GPU性能比Hopper离别普及2倍以及1.7倍。
确认知情东谈主士表示的音书,以及摩根士丹利调研后的产业链论说,Rubin架构AI GPU 打算接管台积电最新3nm 技能、CPO 封装以及 HBM4;Rubin的芯片尺寸或将是Blackwell的近两倍,Rubin可能包含四个中枢规画芯片,是Blackwell架构的两倍。知情东谈主士涌现,3nm Rubin 架构预计将在2025年下半年参加流片阶段,较英伟达之前预期时分提前半年附近。
确认面前表流露的音书来看,Rubin架构的最大亮点无疑是共同封装光学(CPO)。Hopper与Blackwell互连技能更多仍依赖改良之后的 NVLink 以及芯片互连技能,而不是平直通过光学神志进行数据传输。
Rubin约略率是天下首个选拔CPO+硅晶圆先进封装的数据中心级别AI芯片,CPO所带来的数据传输后果以及能耗后果,或将比较于NVLink 呈现出指数级飞跃。在CPO封装体系中,光学元器件(如激光器、光调制器、光纤和光探伤器)平直与中枢规画芯片(如GPU或CPU)封装在沿途,而不是将光学器件单独遗弃在芯片外部,这些光学元件的作用是传递光信号,替代传统的电信号传输神志,进行芯片间数据的高速传输,大幅减少电子数据从芯片到光学接口之间的信号损耗,指数级提高数据蒙眬量的同期还能大幅镌汰功耗。
通过光信号的高速传输,CPO能提供比传统电信号传输更高的数据带宽,这对于东谈主工智能、大数据以及高性能规画(HPC)诓骗中,尤其是在需要大鸿沟并行规画时至关紧迫。因此CPO封装被觉得是英伟达Rubin架构AI GPU的中枢亮点,它将为下一代AI和高性能规画提供极高的带宽、低蔓延和大幅普及的能效。在业内东谈主士看来,由于CPO技能能够更大程度惩办数据传输速率和功耗问题,它的诓骗将进一步推动英伟达在数据中心AI芯片市集的稀奇地位。