英伟达开卷价格!最新Blackwell GPU架构/成本揭秘,彰显老黄的「仁慈」
【新智元导读】老黄新GPU深夜炸场,超高规格的背后也付出了不小的代价,小编带大家深入了解一下新架构的硬件细节和成本,新显卡的售价究竟高不高?英伟达也不得不开始卷了
老黄的新GPU又在深夜炸场,震撼了所有的观众。
除了硬件参数上的震撼之外,大家伙最想知道的还是新GPU的售价会不会同样震撼。
下面就让我们从规格参数、工艺节点、封装设计等方面来深入分析一下新一代Blackwell GPU的系统、定价、利润,以及Jensen's Benevolence(老黄的仁慈)
在这个大模型的时代,英伟达正处于世界之巅,拥有至高无上的定价权。
需要AI算力的用户没有更好的选择,于是不得不接受英伟达「用银汤匙喂给他们的东西」,——毛利率超过85%的H100就是最好的例子。
而这一代B100在性能和总体拥有成本方面的优势依然保持不变,超越了AMD的MI300X、英特尔的Gaudi 3。
不过这次新系列GPU的定价,可能会让很多人大吃一惊,也许我们会说「B」代表的不是「Blackwell」架构,而是「Benevolence」(老黄的仁慈)。
——因为AI时代的主宰和救世主黄仁勋正在向全世界微笑,尤其是对于「GPU-poor」(缺乏GPU的用户)来说。
B100 / B200规格
——在以往发布的最新数据中心GPU上,英伟达都会采用更新的工艺制程,而这一次没有。
这是因为台积电最初的3纳米N3B工艺存在问题,所以英伟达不仅没有吃到提升制程的红利,还不得不把硅片的总量增加一倍。
此外,新架构使用了8-hi HBM3E,容量高达192GB,这些显存的供应商是SK Hynix和Micron。
尽管其中绝大部分来自SK Hynix,但这也改变了SK Hynix作为H100显存唯一供应商的局面。
至于早就宣布要开发"世界上最快"的HBM3E的三星,目前仍然差点意思。
GPU的进化趋势是在更大的封装中使用更多的硅片(包括逻辑和存储器),而目前硅基插值器(silicon-based interposers)的尺寸已达到极限。
尺寸的增大会使硅片的生产面临更多问题,从而降低产量。相比于上一代,B100的封装尺寸要大得多,它将成为首款采用CoWoS-L的大容量产品(CoWoS-L是一种带有无源硅桥的有机RDL基底面)。
Umbriel 和 Miranda
Blackwell的第一个版本代号叫Umbriel,它保留了前代PCIe Gen 5、400G网络等,B100风冷式700W甚至可以无缝接入现有的H100和H200服务器底板。
不过B200的功率上限将提高到1000W,就需要重新设计服务器了。当然也有信息显示,1000W版本仍然可以采用风冷方式,令人感到意外。
标准版GPU的代号是Miranda,拥有PCIe Gen 6和800G的网络,而显存容量更是高达192GB。
目前,英伟达已经买断了所有36GB HBM的供应,SK Hynix和Micron将在明年初开始生产。这意味着,每块GPU的容量实际上可以达到288GB。
GB200平台
在供应链中,每个人都在讨论的产品是Oberon GB200平台,新平台解决了GH200的许多问题。
首先,GB200将所需的CPU数量减半,从而在总体拥有成本(TCO)上占据了优势。——GH200的价格实在是太贵了,而大多数的AI负载,实际上用不到服务器上昂贵的英伟达Grace CPU所提供的功能。
很多时候,GH200中的Grace芯片只是充当了世界上最昂贵的内存控制器。在可以单独购买GPU的场景下,基本上所有AI大公司都会选择买更多的GPU,而不是英伟达的CPU。
另一方面,英伟达正试图销售带液体冷却的集成机架。
英伟达不愿意单卖GPU或者NVSwitch,虽然让一些用户感到不满,但由于交换机背板、电源汇流排和冷却系统的集成度要求很高,也算是无可厚非。
在新的液冷机架中,CPU、GPU、NVSwitches和ConnectX7网卡全部采用水冷技术。
机架有两个版本:一种是120kW,可容纳72个GPU(总功率有点过分了),机架顶部有10个计算托盘,中间有9个NVSwitch托盘,底部有8个计算托盘。
每个计算托盘包含4个GPU、4个网卡、2个CPU、768GB HBM和2,000GB LPDDR5X。这个版本会晚一些上市。
另一种是功率较低的版本,这版本的机架有36个GPU和9个计算托盘,可以通过NVLink扩展连接两个机架。
对大多数公司来说,这个版本可能更容易部署。英伟达已通知机架的ODM厂商准备明年生产50,000个机架。
被卷到了
SemiAnalysis表示,对于大批量超大规模定价,B100基板的平均售价仅仅约240,000美元。这对许多人来说是一个惊喜,因为这远低于ASP逐代增长50%的预期。
那么为什么老黄的定价会如此仁慈?答案是被卷到了。
AMD的MI300目前成为了合格的竞争对手,已经成功拿到了英伟达最大的两个客户Meta和微软的大订单,尽管AMD为此承担了很大的技术风险、并尽力降低了利润。
而另一方面,英伟达的所有主要客户都在设计自己的芯片。虽然迄今为止,只有谷歌取得了成功,但亚马逊仍在继续推出Inferentia和Trainium,Meta也在长期押注MTIA,微软同样开启了芯片之旅。
英伟达的防御形态
很明显,生产成本翻倍,但售价增加得不算太多,B100的利润率肯定是赶不上前代了。
H200也是如此,它的ASP与H100相同,但HBM显著增加,从而增加了BOM。
而H20则更糟糕,尽管价格卖的更低,但实际上它与H100使用了相同的GPU芯片,HBM容量也从80GB增加到96GB,因此总体BOM成本实际上也增加了。
——以上的分析虽然听起来很可怕,不过别担心,毛利率只会再下降几个百分点而已。
SemiAnalysis对此评价道:“英伟达更关心毛利润和市场份额,而不是毛利率。过分担心几个百分点是精打细算的人所做的事情,而不是像黄仁勋这样的有远见的人所做的,他想以仁慈的计算独裁者的身份统治世界。”
毕竟,英伟达在数据中心上的收入持续飙升,并且正在实现供应链多元化,从800G收发器到电力传输组件,——老黄正在下一盘大棋。
也许,随着时代的发展,英伟达这个显卡帝国可能不得不转换成防御形态,因为硬件和软件上的护城河,都不会永远坚不可摧。
但也许,新的帝国正在诞生之中。
新闻中心
推荐文章
-
DeepSeek 一体机:解锁 DeepSeek-R1 大模型潜力,融合 n8n、知识库与智能体构建智能新生态
在人工智能持续高速发展的当下,企业与机构对高效、便捷且强大的人工智能解决方案的需求愈发迫切。DeepSeek 一体机应运而生,凭借其卓越的性能与创新的设计,成为推动人工智能应用落地的关键力量。它紧密结合 DeepSeek-R1 大模型,联动 n8n、知识库与智能体,打造出一个功能强大、灵活高效的智能生态系统,为各行业的数字化转型与智能化升级提供坚实支撑。
넶3 2025-05-28 -
RAG、知识库与智能体:n8n、coze、dify、fastgpt、mcp 构建的智能新生态
在人工智能蓬勃发展的当下,如何高效利用知识并实现智能化交互成为关键议题。检索增强生成(RAG, Retrieval-Augmented Generation)技术的出现,为这一领域带来了新的突破。它如同为人工智能赋予了一个 “外挂知识库”,通过与知识库的紧密协作,让智能体的表现更加智能、准确。而 n8n、coze、dify、fastgpt、mcp 等平台与工具的介入,进一步推动了 RAG、知识库与智能体的融合发展,构建出一个充满活力的智能新生态。
넶4 2025-05-28 -
Infiniband 与 IB 组网赋能:GPU 池化管理、算力调度及迈络思与英伟达的技术协作
在当今数字化浪潮中,数据量呈爆炸式增长,人工智能、大数据分析、科学计算等领域对算力的需求达到了前所未有的高度。为了满足这些严苛的需求,高效的网络架构和先进的计算资源管理技术成为关键。Infiniband 组网(IB 组网)凭借其卓越的性能,在数据中心和高性能计算(HPC)环境中崭露头角,与 GPU 池化管理、算力调度技术紧密结合,而迈络思(Mellanox)和英伟达(NVIDIA)作为行业内的领军企业,正引领着这一技术变革的潮流。
넶6 2025-05-28 -
PICO 与 HTCVIVE:大空间中数字人动作捕捉与多人互动的革新者
在科技飞速发展的当下,虚拟现实(VR)和增强现实(AR)技术不断拓展着人类体验的边界。大空间数字体验、数字人动作捕捉以及大空间多人互动等前沿领域,正逐渐从科幻设想走进现实生活,为娱乐、教育、工业等诸多行业带来了全新的变革。在这场技术革命中,PICO 与 HTCVIVE 作为行业内的知名品牌,凭借其先进的技术和创新的产品,成为了推动这些领域发展的重要力量。
넶5 2025-05-28 -
算力租赁浪潮下,英伟达 H20 与 GPU 集群、AI 服务器的行业变革
在当今数字化与智能化飞速发展的时代,数据量呈指数级增长,人工智能(AI)应用如大语言模型、图像识别、智能推荐系统等蓬勃兴起,这一切都对计算能力提出了前所未有的高要求。算力,已然成为了推动科技进步与产业发展的核心驱动力,而算力租赁市场也随之迎来了爆发式增长。与此同时,英伟达作为 GPU 领域的领军企业,其推出的 H20 芯片以及相关的 GPU 集群、AI 服务器产品,在这一浪潮中扮演着举足轻重的角色。
넶4 2025-05-28 -
深度探索 DeepSeek 一体机:大模型、本地化部署与智能生态构建
在人工智能技术飞速发展的当下,企业和开发者对于高效、便捷且功能强大的 AI 解决方案需求愈发迫切。DeepSeek 一体机的出现,为满足这一需求带来了新的契机,其融合了 DeepSeek-R1 大模型、本地化部署优势,结合 n8n 的工作流自动化能力,以及知识库与智能体技术,构建起一个完整而强大的智能生态体系。
넶6 2025-05-27