英伟达GTC大会四天,热浪不减。
在全球社交媒体上,英伟达创始人兼CEO黄仁勋成为参会者争相合影的明星,英伟达几乎成为AI的代名词;GPU芯片架构Blackwell、大模型GROOT、NIM微服务成为新晋热词,持续刷屏。
其中,最受关注的莫过于Blackwell架构,炙手可热的B200、GB200芯片都基于此。黄仁勋在演讲中指着GB 200芯片和HGX B200服务器主板等产品说:“我要小心一点,这可值100亿美元。”
地表最强AI芯片背后的故事始终吸睛,大家好奇,黄仁勋调动了多少量级的资源、聚集了如何顶级的人才梯队,才造就了当下如日中天的算力帝国。
英伟达虽未披露Blackwell的具体研发金额,但一组数据可以作为侧面观察。Forrester副总裁兼首席分析师戴鲲向21世纪经济报道记者表示,黄仁勋在当天的沟通会上透露了Blackwell的投入情况,约有25000人共同研发了3年。
英伟达目前约有3万名员工,一切的背后,基石还是人才和有效组织。上一代架构Hopper直接带着英伟达冲上2万亿美元市值,业界也将持续关注新一代的Blackwell将如何为英伟达创造历史。
“人月神话”
根据公开信息,我们可以大致估算英伟达的人力开支。
英伟达人均年薪中位数约为21.75万美元,以此做一个非常简单粗略的人力成本计算,250002175003=16312500000美元,即3年的人力薪酬约163亿美元。当然研发人员可能身兼数职,也不会365天都在工作,年薪也有差异,但即使取一半数值,人力的投入成本已经接近百亿美元级别。
而这仅仅是人力的部分,由此也可见,这些看似庞大的研发成本数据,当以人为尺度,资金额度都合情合理。业内人士也一直向记者感慨,英伟达有钱有人有眼光。
“这让我想起了软件界的一本巨著《人月神话》(The Mythical Man-Month),”一位IT资深从业者向21世纪经济报道记者说道,“《人月神话》是由技术大神Frederick P. Brooks 撰写的一本软件工程学经典巨作,是全世界软件行业最知名的书,没有之一。这本书讲的不是人和月亮的故事,但是比人和月亮的故事更加伟大,书里讲的是软件工程行业里,做一个软件的成本核算方式,就是用多少人多少个月,所以叫人月神话。”
这种“人月”概念计算思维也被普及到科技界,黄仁勋一直强调英伟达是一家软件公司,事实上现在软硬件一体化密不可分。这些年,“包工头”黄仁勋带领着一众研发人员,创造英伟达的“人月神话”。
根据《人月神话》,人和月成为软件行业研发的两个基层度量,人代表着技术工人的成本和规模,月代表着软件面对市场竞争激烈要投入的时间。以人和时间为导向,来描述那些伟大的软件开发系统需要多少人力成本,用一种科学方法去量化人的成本。
25000人,3年36个月,英伟达迭代出了新一代架构Blackwell,随着今年产品上市,2025年将成为市场主流。而新的架构也已经在研发的路上,新一轮的人、月、神话又将开始。
背后的技术团队也在持续扩大。从研发人员比例看,2024年,英伟达有29600名员工,其中有22200人从事研发工作,占员工总数的75%。2023年的研发人员为19532人,占比也高达74.5%。
研发人员不断增长的同时,英伟达的研发投入也在增加。根据中泰证券的梳理,2005年AMD的研发费用为11亿美元,是英伟达的3.2倍左右,而到了2022年,英伟达的研发费用达到了73.4亿美元(对应2023财年),是AMD的1.47倍。到2023年,研发金额继续增加至86.8亿美元。
“不卖芯片,卖数据中心”
在B100之前,英伟达的A100和H100就已经在民间名声大噪,一方面他们是美国出口限制的典型,另一方面也是ChatGPT训练能力的核心芯片。国内从投资人到程序员都逢人必谈A100和H100,算力焦虑成为新的焦虑类型。也许从来没有一种电子产品像英伟达的显卡一样你天天听说,但是又不用上。
如今,随着Blackwell GPU的推出,中国市场必然成为关注焦点之一。对此,黄仁勋接受媒体采访时说道:“我们面向中国市场推出了L20和H20芯片,我们正在尽最大努力为中国等地区的客户服务。”
谈及政策的限制,他表示,首先要确保理解政策,其次是尽可能地强化供应链韧性。“当我们把这些零件配置成DGX(AI超级计算机)的时候,需要数十万个零件,它们来自世界各地。当然其中许多来自中国,世界供应链是相当复杂的。”黄仁勋说道。
英伟达同时也面临着新的产业链竞合关系,一方面,云厂商大客户们自己正在加紧研发AI芯片,另一方面英伟达本身也推出了云服务,大家在不同的赛道上进行交织。
但是两者对于商业模式有着不同的策略。比如,黄仁勋强调,英伟达并不销售芯片,售卖的是数据中心。他也将英伟达的机会点指向数据中心,“如果你生产GPU,也会有很多人来制造GPU,GPU市场和我们所追求的数据中心市场不一样。全球的数据中心市场大概是2500亿美元左右,现在正在快速向加速计算转变,并且还在增长,这就是我们的机会。”
这意味着,英伟达现在出售的是一整套算力解决方案,而非单纯的芯片硬件。所以他也一直在说英伟达的总运营成本(TCO)具有优势,即使竞争对手的芯片是免费的,最终算下来也不够便宜。
而英伟达推出的云服务也只是一种解决方案,“虽然英伟达推出了英伟达云服务DGX Cloud,但我们的策略依然是与云服务提供商合作,将我们的云放入他们的云中。英伟达不会成为一家云计算公司,我们的目标是通过软件的构建,让全球的开发者和云服务提供商采用英伟达的架构来构建产品。”黄仁勋表示。
对于英伟达和云厂商的关系,戴鲲向记者分析道:“竞争同时也互补,比如DGX架构放在AWS上。目前合作的营收远大于竞争的损失,DGX是主要的算力交付形态之一。现在英伟达以统一的方式、通过不同的途径,实现算力对人工智能技术创新的泛在供给。”
随着企业之间的业务交叉和融合,产业的竞合关系也在变动之中。
合纵连横
在黄仁勋看来,AI掀起了新的工业革命,现在还是开始阶段,他号召产业界一起加入、做好准备。
随着GPT、Sora、Claude、Lama等大模型的不断迭代,推高了产业界对于AI芯片的需求,不论是英伟达,还是英特尔、AMD、华为等,都在挖掘新的增长点。
英伟达在原先的基础之上进一步强化壁垒,Blackwell GPU不必多言,还有两方面的动作值得关注。其一是软件产品的完善,其二是和产业链的紧密合作。
首先,需要注意英伟达也是软件公司,在其官网产品菜单下,只有两个目录,硬件和软件,软件目录比硬件的还长。黄仁勋的高瞻远瞩之处在于,他知道硬件公司不能做硬件,要做生态,生态的另外一只手就是软件,比如CUDA。
可以说CUDA是算力世界的Linux+Windows,CUDA有社区开发者、有广泛的商业应用、还有云。现在几乎所有的AI芯片,都会适配CUDA,而在CUDA这条护城河之外,英伟达正在面向生成式AI建立新的壁垒,即用于构建软件的“AI Foundry”(AI代工厂)。
黄仁勋表示,英伟达要做AI界的代工厂,三大核心支柱就是NIM微服务(推理平台)、NEMO微调服务和DGX Cloud。其中新推的NIM微服务,里面有所有预训练好的AI大模型,让开发者方便快捷地构建AI应用,NEMO作为工具可以微调修改大模型,DGX Cloud提供算力基础设施。这些都将改变未来开发应用的方式,程序员将不用重头写代码,借力NIM的各种微服务可以快速完成核心环节。
另一方面,英伟达也在进一步加强和供应链的关系,尤其受到关注的是台积电、三星、SK海力士。因为目前台积电的CoWoS先进封装以及存储厂的HBM(一种高效能存储芯片),是影响GPU量产规模的瓶颈。
黄仁勋也对媒体表示:“今年我们对CoWoS的需求非常大。”据悉,台积电计划投资160亿美元新建先进封装厂,计划今年CoWoS产能目标为每月35000片晶圆,2025年底再提高至每月44000片。随着新工厂启用,台积电不断提高CoWoS产能。
先进封装之外,AI对高性能存储的需求也在增加,HBM持续走红。目前,三星、SK海力士都在加速扩产HBM产品。
TrendForce集邦咨询数据显示,预估截至2024年底,整体DRAM产业规划生产HBM TSV的产能占总DRAM产能约14%,供给位元年成长约260%。此外,2023年HBM产值占比之于DRAM整体产业约8.4%,至2024年底将扩大至20.1%。
“HBM是非常复杂的,有很高的附加值,我们在这个业务上投入了很多资金。不要认为HBM是DDR5,这是完全不一样的,那些DDR内存,未来都会变成HBM,英伟达在成长的话他们也会随之成长。”黄仁勋表示,希望和三星以及海力士的合作更紧密一些。
可以看到,称霸江湖的英伟达,还在不断进化自身、强化供应链。而新的旅程、新的竞赛也已经拉开帷幕配资网,B100系列之后或为X100、GX200等产品,新的人月故事正在开启。