北京时间3月21日23点,一年一度的英伟达GTC大会如约而至;英伟达CEO黄仁勋在大会中公布了英伟达最新的众多技术“炸弹”: 响应生成式AI的开发,推出3款全新推理GPU(分别擅长AI视频、图像生成、ChatGPT等大型语言模型的推理加速); 能够将计算光刻的速度提高到原来40倍的NVIDIA cuLitho计算光刻库(台积电、ASML、EDA巨头Synopsys纷纷为其站台); AI超级计算服务DGX Cloud;加速企业创建大模型和生成式AI的云服务NVIDIA AI Foundations...... 正如黄仁勋反复强调的那样:“AI 的 iPhone 时刻已经到来。” 图片来自:英伟达发布会 承由OpenAI发布的ChatGPT和DALL-E 2这样的大型语言模型(Large Language Model)将生成式 AI 引入了公众的视线; 就此,时代的风口由元宇宙和web3突然切换到生成式AI,FAAMG、微软、谷歌等硅谷巨头们都已战鼓擂擂。 在此之中,作为OpenAI的股东之一的英伟达,则稳稳地成为这场算力之战的最大受益者之一: 就在五个月前,英伟达股价从2022年年初到10月14日的低点已经下跌了62%,市值只有2,796亿美元,因为对芯片行业和估值的担忧拖累了该股。 现在情况发生了变化:市场情绪的变化帮助英伟达重新进入上涨轨道,ChatGPT和其他人工智能技术的兴起,为这只股票的大规模波动提供了催化剂。 今年,英伟达的股票在3个月间上涨了84%;现在,英伟达的市值为6646亿美元,仅比伯克希尔(全球市值第5)的6730亿美元落后84亿美元。 或许在开文时,我们就会提出这样一个问题:英伟达凭什么可以踏浪前行? 图片来自:英伟达发布会 或许,是早起技术沉淀所打造的龙头效应: 作为半导体从业者的我们应该可以理解:大模型技术涉及 AI 开发、推理、训练的方方面面,所谓模型的大主要是参数量大、计算量大,需要更大体量的数据和更高的算力支撑;且对于 GPU 厂商来说,大模型是值得期待的算力红利,尤其是通用性极强的英伟达。 全球来看,大算力芯片领域主要有两个玩家,英伟达和AMD,从市占率来说,英伟达远超AMD;根据John Peddie Research的数据,英伟达占据了 GPU 市场约 86% 的份额。 从英伟达自身的财报上看,这波生成式 AI 对于英伟达的需求主要反映在数据中心业务;事实上,2023 整个财年的四个季度,数据中心已经替代了英伟达起家的支柱业务——游戏,成为第一大业务。 但细究其核心我们可以发现:英伟达本次的前行,主要归功于其不断地技术革新所导致的降本增效。 以ChatGPT为例,无论是“造”出这样一个大模型,还是运行这样一个大模型,都需要极大的算力,需要成千上万个GPU;据报道,OpenAI用了 10000个英伟达的GPU来训练ChatGPT。 某种意义上来说,计算成本已经成为今天阻碍生成式 AI 发展的核心问题,OpenAI 为此烧掉了数十亿乃至上百亿美元,微软也出于成本考虑始终没有向更大范围的公众开放新 Bing,甚至限制用户每天的对话次数。 对此,作为NVIDIA DGX的核心,黄仁勋宣布了一种新的GPU——带有双图形处理器NVLink的H100 NVL;正如黄仁勋所说:“H100 可以将大型语言模型处理成本降低一个数量级”。 NVIDIA H100 Tensor ;图片来自:英伟达 NVIDIA DGX最初被用作AI的研究设备,现在已经被企业广泛用于优化数据和处理AI。 基于英伟达的Hopper架构,H100 采用Transformer引擎,被设计用于专门处理类似 GPT 这样的模型;与用于GPT-3处理的HGX A100相比,一个搭载四对H100和NVLINK的标准服务器的处理速度快 10 倍。 根据官网数据,H100的综合技术创新;可以将大型语言模型的速度提高 30 倍。 特别是针对当下半导体产业链高墙高驻的今天,英伟达也同步地将中国市场的需求纳入了其实际规划: 图片来自:英伟达 NeMo和Picasso服务运行在可通过浏览器访问的 NVIDIA DGX Cloud上,开发人员可以通过简单的应用编程接口(API)使用每项服务上提供的模型。 每项云服务都包含六个要素:预训练模型、数据处理框架、矢量数据库和个性化服务、经过优化的推理引擎、各种API、以及NVIDIA专家提供的支持,可帮助企业针对其自定义用例调整模型。 有消息称,此次英伟达的上云计划,将在一定范围内绕过美国相应的芯片法案;使中国企业在本土能够使用NVIDIA AI Foundations云服务大规模地运行推理工作负载。 此外更有消息称,英伟达已将其旗舰产品(H100)修改为可合法出口到中国的版本,这款名为H800的新芯片被阿里巴巴集团、百度和腾讯等中国科技公司的云计算部门使用。且有数据表明:H800 主要将芯片到芯片的数据传输速率,降低到旗舰 H100 速率的一半左右。 相较于将AI运用于日常的生活、生产与工作中,英伟达也终于将AI的智能化概念“反作用”于芯片制造的关键步骤——光刻流程中: 大约30年前,晶体管的尺寸已经发展到比光刻机波长更小,由于衍射效应,掩膜上的图案与最终图案特征变得完全不同,这使得模拟光通过光学元件和光刻胶互相作用结果的计算光刻成为了芯片制造过程中机器重要的一环。 图片来自:英伟达 在芯片领域,英伟达联合台积电、ASML 和 Synopsys,历时 4 年终于完成了计算光刻技术的一项重大突破 ——NVIDIA cuLitho计算光刻库: 正如黄仁勋所言:在芯片设计和制造领域中,计算光刻是最大的计算工作负载,每年都要消耗数百亿 CPU 小时。相比之下,英伟达创造的这个新算法,可以让日益复杂的计算光刻工作流程能够在 GPU 上并行执行。 但随着先进制程发展,计算光刻变得愈加复杂,CPU负载已经举步维艰;而本次NVIDIA cuLitho计算光刻库的诞生与使用则又一次拉开了“黄氏定律”与“摩尔定律”的差距,带领芯片制造走上了一条新的“活路”。 英伟达表示:在cuLitho加持下,短期内可以提升芯片产业链效率,并大幅降低功耗,在新的流程下,仅需要500块H100就能够完成此前需要传统流程中40000个CPU系统才能完成的工作,让光刻技术性能跃升了40倍。 与此同时,当全球的半导体从业者都沉浸在英伟达所带来的冲击当天,据彭博社最新报导: 美国拜登政府将针对申请《芯片与科学法案》配套的500多亿美元补贴的半导体制造商提出更严格限制。 明确表示:将限制受补贴的企业10年内对华28nm以上产能和投资,且将公布对获得联邦资金的半导体制造商在中国开展新业务的严格限制。 综上所述,身为中国半导体从业者的我们,或许再一次深刻地认识到了什么是”买不如造“;正如部分从业者所言的一样:ChatGPT来的有点不是时候,正赶上中美芯片博弈。 但,事已至此,或许身处当下漩涡中的我们再一次发现:认清形势、正视困难并发奋努力的重要性! 由于篇幅受限,本次英伟达GTC大会就先介绍这么多...... 想了解更多半导体行业动态,请您持续关注我们。 奇普乐将在每周,不定时更新~ 最后的最后,借由安徒生的一句名言: 任何高处,未有人间所不能达者;然而欲达目的,则不可不以决心和自信为之。 愿每一位半导体从业者可以—— 不驰于空想,不骛于虚声! |