点击注册小程序 查看完整报告 特别申明: 【电子】英伟达2023年GTC大会:AI的iPhone时刻——AI行业跟踪报告之六 报告摘要 主要发布产品: 【加速库】更新了100个加速库,包括用于量子计算的cuQuantum、用于组合优化的cuOpt以及用于计算光刻的cuLitho,与台积电、ASML和Synopsys合作达到2纳米及更高精度制程。 【加速计算】每家公司都必须加速所有工作负载以减少功耗,Grace、Grace-Hopper和BlueField-3是适用于超级节能加速数据中心的新芯片。 【超级计算机】NVIDIA DGX AI超级计算机是生成式大型语言模型取得突破的引擎,其配有8个H100 GPU模组,8个H100模组通过NVLINK Switch彼此相连,实现了全面无阻塞通信。8个H100协同工作,就像是一个巨型的GPU。 【NVIDIA DGX Cloud】通过一个浏览器就可以将NVIDIA DGX AI超级计算机即时地接入每家公司,正通过与Microsoft Azure、Google GCP和Oracle OCI拓展业务模式。 【新推理平台:四种配置】适用于AI视频的L4 Tensor Core GPU;适用于Omniverse和图形渲染的L40 GPU;适用于LLM(大语言模型)推理的H100 NVL GPU;适用于推荐系统和向量数据库的Grace-Hopper。 【NVIDIA AI Foundations】是一个云服务和代工厂,用于构建自定义语言模型和生成式AI,包括语言模型NEMO、视觉模型PICASSO和生物学模型BIONEMO。 【Omniverse】是实现工业数字化的数字到物理操作系统,可以统一端到端工作流。Omniverse正在上云,在Azure上托管,与Microsoft合作,将Omniverse Cloud引入全球各个行业。 核心亮点: ChatGPT专用GPU可提速10倍 H100 NVL是专门为LLM设计的GPU,采用了Transformer加速解决方案,可用于处理ChatGPT。相比于英伟达HGX A100,一台搭载四对H100和双NVLINK的标准服务器速度能快10倍,可以将大语言模型的处理成本降低一个数量级。 计算光刻技术提速40倍,将应用于2纳米制程 NVIDIA cuLitho计算光刻库可以通过计算技术大幅优化芯片制造流程,利用GPU技术实现计算光刻,可以使传统光刻技术提速40倍以上。NVIDIA H100需要89块掩膜板,在CPU上运算时,处理单个掩膜板,当前需要2周时间,如果在GPU上运行cuLitho则只需8小时即可处理完一个掩膜板。黄仁勋说:“台积电可以通过在500个DGX H100系统上使用cuLitho加速,将功率从35MW降至5MW,替代用于计算光刻的40000台CPU服务器。cuLitho正在与台积电、ASML和Synopsys合作达到2纳米及更高制程。 AI超级计算上云 DGX Cloud云服务提供了专用的NVIDIA DGX AI超级计算集群,搭配NVIDIA AI软件,使每个企业都可以使用简单的网络浏览器访问AI超算,消除了获取、部署和管理本地基础设施的复杂性,这意味着大算力需求的技术门槛被降到极低。 AI工厂,通过云服务把制造大模型的能力交给更多用户 NVIDIA AI Foundations,旨在为用户提供定制化的LLM和生成式AI解决方案,该服务包括语言模型NEMO、视觉模型PICASSO和生物学模型BIONEMO。这意味着各行各业未来可通过接入该服务拥有自主定制生成式AI模型的能力。 “工业元宇宙”Omniverse上云 英伟达推出Omniverse Cloud的云服务,支持即时、安全地访问托管的Omniverse Cloud API。英伟达正在与微软合作,将Omniverse云服务引入全球各个行业。同时,英伟达正在将Omniverse云连接到Microsoft 365生产力套件,包括Teams、OneDrive、SharePoint和Azure IoT数字孪生服务。随着英伟达Omniverse Cloud的普及,工业元宇宙或将走进现实。 风险提示:市场竞争风险;行业景气度持续低迷;研发不及预期风险。 发布日期: 2023-03-26 免责声明 |