“这几天电话都快被打爆了。”谈到最近爆火的ChatGPT,英伟达中国区一位高管日前向媒体说道。 春节过后,全球AI范畴最引人关注的非聊天机器人ChatGPT莫属。 在资本和行动的吹捧下,具有交流、创作、翻译等多种功用的ChatGPT,俨然已成为一个现象级产品。不只背地的OpenAI和微软借此名声大噪,国内一众高调跟进的互联网大厂也赚足了眼球。 但实践上,在网友们褒贬不一,对ChatGPT持续展开讨论的同时,支撑ChatGPT降生的算力基础——AI芯片和效劳器也正在资本市场上掀起巨浪,已下跌一年的英伟达,股价在4个月里完成翻倍。 英伟达CEO黄仁勋 在国内,股市上的热情似乎更胜一筹。国产GPU厂商景嘉微股价一个月涨超60%,即便曾经公开表示没有ChatGPT相关业务,依然挡不住股价的涨势,让高管们不趁机减持都不好意义。 算力,是人工智能的“三驾马车”之一,跟着ChatGPT备受追捧无可厚非。但值得关注的是,打造ChatGPT到底需求耗费多少算力?资本市场狂欢下,国内厂商又能在多大水平上受益? 在接受察看者网采访时,国内效劳器厂商宁畅副总裁兼CTO赵雷指出,就ChatGPT而言,需求TB级的运算锻炼库,以至是P-Flops级的算力。从目前的效劳器处置才干来看,大约是几十到几百台范围的GPU效劳器体量才能够完成,而且需求几日以至几十日的锻炼。 市场上还有券商讲演称,ChatGPT带动超算算力需求3年或将提升超越10倍,未来3年或将拉动千亿级ICT硬件投资需求。随着ChatGPT的持续爆火,英伟达真的会成为最大赢家吗? “显卡寒冬”中带飞英伟达,市场过度达观了? 在ChatGPT爆火出圈之前,黄仁勋最头疼的事应该还是怎样更快渡过本轮“显卡寒冬”。 刚刚过去的2022年,全球独显出货量创下二十年新低,相比2021年“腰斩”。作为全球显卡市场的头号玩家,英伟达持续遭受重创,业绩连续两个季度下滑,股价一年之内暴跌70%。 但ChatGPT现象级爆火很快改动了这一颓势。去年10月中旬以来,英伟达股价从108美圆/股飞涨至228美圆/股,反弹111%,市值重登美股半导体板块第一,大幅甩开英特尔同等行。 “我们不时在等候这一刻,”看到英伟达股价在市场低迷下逆势飞涨,黄仁勋对ChatGPT的赞誉也毫不吝啬,直言ChatGPT关于人工智能的意义,不亚于手机范畴“iPhone”的呈现。 英伟达CEO黄仁勋 市场猎奇的是,世界上那么多芯片公司,为什么偏偏英伟达的股价会随着ChatGPT翩翩起舞? 简言之,就是ChatGPT的底层基础是一个具有1750亿参数的预锻炼大模型——GPT-3.5,它能如此睿智,主要是基于对天量数据的“吃透”,背地离不开强大算力的支撑,而英伟达的GPU能提供它需求的算力。 目前来看,全球其他正在跟进的厂商想要推出ChatGPT这种人工智能大模型,必须有三项关键技术支撑:锻炼数据、模型算法和算力。 浙商证券研报指出,锻炼数据市场宽广,技术壁垒较低,投入足够的人力物力及财力后即可取得;基础模型及模型调优对算力的需求较低,但取得ChatGPT功用需求在基础模型上进行大范围预锻炼,这就需求大量算力,所以算力是ChatGPT运转的关键所在。 说起AI算力,就到了GPU的主场。 最初,英伟达基于CUDA架构开发的GPU主要用于游戏,后来发现它还可用于AI锻炼和推理中的大范围并行计算任务,逐步构成开发者生态。在AI延展初期,市面上没有特地的AI加速卡和硬件产品,开发者便将英伟达GPU用于AI锻炼和推理,开端大范围采用其产品。 CPU和GPU架构的区别 “英伟达芯片为大模型锻炼做了很多优化,它才是这次ChatGPT热潮的最大赢家。”有业内人士直言。 那锻炼ChatGPT到底需求多少算力? 海通证券征引的OpenAI测算显现,自2012年起,全球头部AI模型锻炼算力需求每3-4个月翻一番,每年头部锻炼模型所需算力增长幅度高达10倍,而ChatGPT锻炼阶段总算力耗费约为3640PF-days(即1 PetaFLOP/s效率跑3640天)。 在接受察看者网采访时,宁畅CTO赵雷提到,目前用户运用ChatGPT得到的反响,是锻炼后的产物,主要触及推理应用,计算时间基本上是分钟级或者秒级的。关于ChatGPT锻炼来说,普通是周级或是月级,至少差一个数量级,也有可能差两到三个数量级。 浙商证券研报指出,采购一片英伟达顶级GPU成本为8万元,GPU效劳器成本通常超越40万元。关于ChatGPT而言,支撑其算力基础设备至少需求上万颗英伟达GPU A100(曾经盛行一时的AlphaGO也只需求8块GPU),一次模型锻炼成本超越1200万美圆。 在此背景下,英伟达、AMD等可提供AI算力芯片的公司,股价也开端在半导体下行周期中逆势上涨。就在日前,英伟达中国区高管在接受媒体采访时提到,“这几天好多公司,包含云从科技,都来找我布置调货,基本就调不外来,需求特别大。” 察看者网就相关事宜联络云从科技投资者关系部,对方工作人员回应表示:采购信息只能以公告为准。不外他弥补称,云从科技已和华为、寒武纪等国内厂商完成深度适配,而且以前也准备了一些库存,国际芯片供给不会对该公司构成明显影响。 市场上有业内人士测算,未来GPT-4可能会抵达100万亿个参数,在不运用英伟达H100 GPU或优化架构的状况下,单日访问算力需求6万台A100,仅给英伟达的算力投入就是120亿美圆。 “有没有ChatGPT这个东西,人工智能算力都是永远都不够的。”赵雷向察看者网坦言,元宇宙到往常还没有一线的3A大作游戏画面和互动性好,所以目前市场上的算力还差得远,未来5到10年,至少100倍的算力提升还是需求的。 据《2022-2023中国人工智能计算力延展评价讲演》统计,2022年我国人工智能算力范围已达268百亿亿次/秒(EFLOPS),超越通用算力范围,估量未来5年,中国智能算力范围年复合增长率将达52.3%。 但细致厂商能在多大水平上受益,似乎仍值得察看。近日有台湾岛内行业人士透露,英伟达并没有由于ChatGPT在台积电加投先进工艺的4nm芯片,市场都过度达观了。 国内厂商成色几何? 自ChatGPT爆火以来,国内大厂纷繁跟进,这也点燃了A股的算力基础设备概念,浪潮信息、神州数码、华胜天成等效劳器产业链公司连日大涨,以至浪潮信息还收到了深交所的关注函。 作为国内专注人工智能赛道的效劳器厂商,宁畅固然没有上市,但仰仗与英特尔、英伟达的联手协作,在这轮ChatGPT热潮中也遭到市场关注。 宁畅CTO赵雷通知察看者网,ChatGPT的持续爆火为AIGC带来全新增量,行业对AI模型锻炼所需求的算力支持提出了更高请求,也为宁畅带来更多市场空间和延展机遇。 依据IDC讲演,2021年中国AI效劳器市场范围达350.3亿元,同比增长68.6%,浪潮信息、宁畅、新华三、华为和安擎等位居前五,占领82.6%的份额。在全球AI效劳器市场上,浪潮以20.9%的份额位居第一。 图源:IDC 但效劳器只是整机,国内AI产业要想自主延展,最关键的还是在中心芯片上控制主动权。 一组第三方数据显现,中国加速效劳器市场近年来不时壮大,2021年范围达53.9亿美圆,GPU效劳器占绝对主导。其中,加速卡的采购型号主要集中在英伟达的T4、V100、V100S以及A100系列上,外加少量的AMD与英特尔。 IDC的数据凸显了英伟达的主导位置:2021年中国加速卡数量出货超越80万片,其中英伟达占领超越80%的市场份额。 去年9月,英伟达被限制向中国供货A100和H100 GPU的音讯引发业内普遍关注。固然英伟达积极争取美国政府答应,并提供低配版产品,但这也再次给国内产业界敲响了警钟。 察看者网留意到,在这轮ChatGPT爆火中,A股也有不少芯片股随之大涨,但炒作意味浓厚。 例如,国产GPU厂商景嘉微曾同时透露“产品未触及AI锻炼与ChatGPT相关业务”和“JM9系列图形处置芯片可用于人工智能计算范畴”两则音讯。在市场信息错误称的状况下,景嘉微股价一个月里大涨超越60%,随后高管很快披露了减持公告。 深交所互动易截图 但也有一些上市公司明白表示具有类GPU芯片业务。 例如,海光信息在招股书中透露,该公司DCU(协处置器)系列产品以GPGPU架构为基础,可普遍应用于大数据处置、人工智能、商业计算等应用范畴。自1月中旬以来,海光信息股价累计涨近30%。 此外近几年在市场上连续大额融资的初创公司,像天数智芯、壁仞科技、摩尔线程等公司,也都推出了自研的通用GPU产品。例如,去年8月壁仞科技发布首款7nm制程的通用GPU芯片BR100,称其可与英伟达的旗舰H100一较高低,但尚未量产上市。 英伟达的“霸权”之下,这些新创公司的产品要想在市场上翻收局面,一方面要处置性能和生态适配问题,以至要反向适配英伟达的生态,另一方面要寄望于国内芯片制造的突破。以在芯片量产方面走在同行前列的天数智芯为例,2022年底累计销售订单为3亿元,与数十亿的融资相比仍差距显著。 除了GPU,CPU、ASIC(专用集成电路)和FPGA(现场可编程门阵列)等芯片被视为也可为AI不同计算任务提供算力,例如寒武纪就推出了一系列ASIC加速芯片,华为也设计了昇腾310和昇腾910系列ASIC芯片,但ASIC芯片通常针对AI应用特地设计了特定架构,通用性不如GPU。 图源:浙商证券 谈到高端算力芯片的市场竞争,海光信息在招股书中指出,在通用处置器范畴,英特尔、AMD的CPU产品在全球市场中占领绝对优势位置;在协处置器范畴,英伟达、AMD的GPGPU产品占领绝对优势位置。总体上国内厂商的市场份额与国际龙头企业相比差距较大,面临着该范畴猛烈的市场竞争。 “今天芯片产业面临的问题不是科研问题,更不是资本运作的问题,而是在成熟的产业生态体系里,我们没有占到中心关键点,更没有中心掌控力。”海银资本开创合伙人王煜全2月8日撰文指出。 他提到,今天十分主流的CPU、GPU芯片生态,是美国政府和众多欧美科技企业花了30多年时间逐步培育、延展起来的。这个范畴,从最上游的指令集、芯片设计软件,到下游制造需求的光刻机,都曾经有十分红熟的规划。除了名义上能看到的各种技术专利、行业规范,还有大量沉淀在业内,很难快速传播和复制的制造、生产经验,曾经构成了枕戈待旦的体系。 王煜全呼吁,在系统芯片异构计算时期,芯片企业、人工智能企业和产生大量数据的应用企业,这三方要深度协作,这样芯片的制造水平未必是最好,但芯片锻炼的模型是最好的。 “固然英伟达占领先发优势,但其他厂商也在踌躇不前。”近期还有行业指出,对ChatGPT这类大模型锻炼,包含商业巨头和头部的研发机构都有持续在投入,像国内的百度、智源、华为、阿里等,其投入范围至今应该超百亿,主要是数据、硬件和人才的持续投入。可预知的是,还有很长的路要走,大模型应用正处于行业爆发的前夜,能够拭目以待。 |