新闻动态
你的位置:开云(中国)Kaiyun·体育官方网站-登录入口 > 新闻动态 > 开云体育(中国)官方网站推理不错在性能较低的、专为特定任务想象的芯片上进行-开云(中国)Kaiyun·体育官方网站-登录入口

开云体育(中国)官方网站推理不错在性能较低的、专为特定任务想象的芯片上进行-开云(中国)Kaiyun·体育官方网站-登录入口

时间:2025-11-24 09:25 点击:153 次

开云体育(中国)官方网站推理不错在性能较低的、专为特定任务想象的芯片上进行-开云(中国)Kaiyun·体育官方网站-登录入口

(原标题:他们齐想解脱英伟达)

公众号铭刻加星标,第一时辰看推送不会错过。

来 源 : 现实编译自cnbc,谢谢 。

据英伟达首席实施官黄仁勋称,英伟达的 Blackwell 系统销售额“远超预期”,但分析师以为定制东谈主工智能芯片(即 ASIC)将快速增长。

这些体积更小、价钱更低、功能更连合的东谈主工智能芯片正由谷歌、亚马逊、Meta、微软和OpenAI等公司自主研发。

《芯片战争》一书的作家克里斯·米勒默示,谷歌的 TPU 是 AI 专用集成电路 (ASIC) 范畴的教学者,有些东谈主以为这些芯片在本领上与英伟达的 GPU 不相陡立,以致更胜一筹。

英伟达公司功绩远超预期,周三公布的财报透露,其图形贬责器在东谈主工智能责任负载方面推崇出色,利润飙升。但其他类型的东谈主工智能芯片也正在飞快崛起。

从谷歌到其他通盘大型超大限制数据中心,通盘主要超大限制数据中心齐在想象定制ASIC(专用集成电路)。TPU到亚马逊的Trainium 和OpenAI与博通的配合筹画这些芯片体积更小、价钱更低、更容易得到,况且大概裁汰这些公司对英伟达GPU的依赖。Futurum Group的丹尼尔·纽曼告诉CNBC,他以为异日几年定制ASIC芯片的增长速率“以致会卓绝GPU阛阓”。

除了GPU和ASIC除外,还有现场可编程门阵列(FPGA),这种芯片在制造完成后不错通过软件重新配置,用于多样应用,举例信号贬责、网罗和东谈主工智能。此外,还有一整套东谈主工智能芯片,它们为成立端而非云表的东谈主工智能提供补助。高通,苹果还有一些东谈主则落拓补助这些成立端东谈主工智能芯片。

CNBC采访了大型科技公司的内行和里面东谈主士,分析了竞争热烈的东谈主工智能范畴以及市面上多样类型的东谈主工智能芯片。

用于通用磋磨的GPU

GPU领先主要用于游戏,但跟着其用途转向东谈主工智能责任负载,英伟达一跃成为群众市值最高的上市公司。畴前一年,英伟达出货了约600万块最新一代的Blackwell GPU。

2025 年 11 月 12 日,在加利福尼亚州圣克拉拉的英伟达总部,英伟达东谈主工智能基础次序高等总监 Dion Harris 向 CNBC 的 Katie Tarasov 展示了 72 个 Blackwell GPU 如安在 GB200 NVL72 机架式 AI 作事器系统中协同责任。

从游戏到东谈主工智能的调遣始于2012年摆布,其时考虑东谈主员操纵英伟达的GPU构建了AlexNet,这被许多东谈主视为当代东谈主工智能的“大爆炸”时刻。AlexNet是一款参加过一项要紧图像识别竞赛的器具。与其他参赛作品使用中央贬责器(CPU)不同,AlexNet依靠GPU达成了惊东谈主的准确率,并透顶打败了通盘竞争敌手。

AlexNet 的创建者发现,GPU 用于渲染传神图形的并行贬责本领一样适用于检修神经网罗,在神经网罗中,磋磨机通过数据学习,而不是依赖才智员编写的代码。AlexNet 展示了 GPU 的普遍后劲。

如今,GPU 往往与 CPU 搭配使用,并装配在作事器机架系统中,部署在数据中心,用于运行云表的 AI 责任负载。CPU 领有一丝功能遒劲的中枢,用于实施限定通用任务;而 GPU 则领罕有千个较小的中枢,更专注于并行数学运算,举例矩阵乘法。

由于GPU不错同期实施多项操作,因此它们止境稳妥东谈主工智能磋磨的两个主要阶段:检修和推理。检修历程熏陶东谈主工智能模子从多量数据中学习阵势,而推理历程则操纵东谈主工智能凭证新信息作念出方案。

GPU是英伟达及其主要竞争敌手AMD的通用磋磨主力居品。软件是两大GPU教学者之间的主要永别。英伟达GPU围绕其私有软件平台CUDA进行了深度优化,而AMD GPU则主要使用开源软件生态系统。

AMD和Nvidia将其GPU出售给亚马逊、微软等云作事提供商。谷歌、甲骨文和CoreWeave这些公司随后按小时或分钟将GPU出租给东谈主工智能公司。举例, Anthropic与英伟达和微软达成的300亿好意思元左券就包含了1吉瓦的英伟达GPU磋磨才智。AMD最近也得到了来自OpenAI和Oracle的大笔订单。

英伟达也平直向东谈主工智能公司销售居品,举例最近与OpenAI达成左券,向其出售至少400万块GPU;此外,英伟达还向包括韩国、沙特阿拉伯和英国在内的异邦政府销售居品。

这家芯片制造商告诉 CNBC,其一个装有 72 个 Blackwell GPU 的作事器机架售价约为 300 万好意思元,每周出货量约为 1000 个。

英伟达东谈主工智能基础次序高等总监迪翁·哈里斯告诉 CNBC,八年前他加入英伟达时,压根无法想象会有如斯大的需求。

他说:“当咱们和东谈主们看管构建一个领有八个GPU的系统时,他们以为这有点过甚了。”

用于定制云东谈主工智能的专用集成电路

在大型说话模子发展的早期阶段,GPU检修至关要紧,但跟着模子的熟谙,推理变得越来越要紧。推理不错在性能较低的、专为特定任务想象的芯片上进行。这即是ASIC芯片的用武之地。

GPU就像一把瑞士军刀,大概为不同的AI责任负载实施多种并行数学运算,而ASIC则像一个单一用途的器具。它止境高效快速,但其想象初志是为一种类型的任求实施特定的数学运算。

谷歌于 2025 年 11 月发布了第七代 TPU Ironwood,距离其 2015 年推出首款用于东谈主工智能的定制 ASIC 芯片已畴前了十年。

《芯片战争》一书的作家克里斯·米勒说:“一朝它们被刻入硅片,你就无法更始它们,因此在活泼性方面存在衡量。”

英伟达的GPU具有敷裕的活泼性,足以被许多东谈主工智能公司采用,但其价钱高达4万好意思元,而且很难得到。尽管如斯,初创公司仍然依赖GPU,因为据米勒称,想象定制ASIC的前期老本更高,起价为数千万好意思元。

分析东谈主士默示,关于有才智承担定制ASIC芯片的大型云作事提供商而言,从长久来看,定制ASIC芯片是值得的。

纽森默示:“他们但愿对构建的责任负载领有更多放纵权。与此同期,他们将连接与英伟达和AMD密切配合,因为他们也需要这些产能。阛阓需求如斯繁荣,难以自在。”

谷歌是首家为东谈主工智能加快定制专用集成电路(ASIC)的大型科技公司,并在2015年推出首款ASIC时创造了“张量贬责单位”(Tensor Processing Unit,简称TPU)一词。谷歌默示,早在2006年就研讨过制造TPU,但直到2013年,跟着东谈主工智能将使其数据中心数目翻一番,这一需求才变得“挫折”。2017年,TPU也为谷歌发明Transformer架构作念出了孝顺,该架构为险些通盘当代东谈主工智能提供补助。

在推出首款TPU十年后,谷歌于11月发布了第七代TPU。Anthropic晓示将使用多达100万个TPU来检修其LLM Claude模子。米勒默示,有些东谈主以为TPU在本领上与英伟达的GPU不相陡立,以致更胜一筹。

米勒默示:“传统上,谷歌只将TPU用于里面用途。但好多东谈主揣度,从长久来看,谷歌可能会更宽泛地盛开TPU的使用权限。”

继2015年收购以色列芯片初创公司Annapurna Labs之后,亚马逊网罗作事(AWS)成为下一个自主研发东谈主工智能芯片的云作事提供商。AWS于2018年发布了Inferentia,并于2022年推出了Trainium。瞻望AWS最早将于12月发布Trainium的第三代居品。

Trainium 的首席架构师 Ron Diamant 告诉 CNBC,亚马逊的 ASIC 芯片比 AWS 中的其他硬件供应商的芯片性价比高出 30% 到 40%。

“跟着时辰的推移,咱们发现 Trainium 芯片大概很好地自在推理和检修责任负载的需求,”Diamant 说。

2025 年 10 月 8 日,CNBC 的 Katie Tarasov 手握亚马逊网罗作事 (AWS) 的 Trainium 2 AI 芯片,该芯片将用于其位于印第安纳州新卡莱尔的新 AI 数据中心。

10 月,CNBC 前去印第安纳州,初次对亚马逊最大的 AI 数据中心进行了现场拍摄。Anthropic 正在该数据中心使用 50 万个 Trainium2 芯片检修其模子。AWS 的其他数据中心则配备了英伟达 GPU,以自在OpenAI 等 AI 客户的需求。

制造专用集成电路(ASIC)并非易事。正因如斯,企业才会乞助于芯片想象公司博通(Broadcom)。和马维尔米勒默示,他们“提供常识产权、专科常识和东谈主脉网罗”,以匡助客户构建他们的 ASIC。

“是以你们不错看到,博通公司尤其成为了东谈主工智能飞扬的最大受益者之一,”米勒说。

博通公司匡助谷歌构建了TPU和Meta芯片。OpenAI 的检修和推理加快器于 2023 年推出,并达成了一项新左券,从 2026 年运行匡助 OpenAI 构建我方的定制 ASIC。

微软也运行涉足ASIC范畴,该公司告诉CNBC,其自主研发的Maia 100芯片咫尺已部署在好意思国东部的数据中心。其他厂商还包括高通(A1200)和英特尔。凭借其高迪东谈主工智能加快器和特斯拉凭借其AI5 芯片,还有一无数初创公司全力插足定制 AI 芯片的研发,包括出产巨型全晶圆 AI 芯片的Cerebras ,以及专注于推理的说话贬责单位的Groq。

在中国,华为、字节越过和阿里巴巴齐在出产定制的ASIC芯片,但对开始进的成立和东谈主工智能芯片的出口管理组成了一项挑战。

基于NPU和FPGA的角落AI

临了一大类东谈主工智能芯片是专为成立而非云表运行而想象的。这些芯片往往集成在成立的主系统芯片(SoC)中。角落东谈主工智能芯片,顾名念念义,大概使成立具备东谈主工智能功能,同期还能匡助成立检朴电板电量和空间,以便容纳其他组件。

“你不错在手机上平直完成这些操作,延伸止境低,是以无需与数据中心进行通讯,”前白宫东谈主工智能和半导体战术看管人赛义夫·汗默示。“而且你不错在手机上保护数据隐痛。”

神经贬责单位(NPU)是角落东谈主工智能芯片的主要类型之一。高通、英特尔和AMD齐在出产NPU,这些NPU大概让个东谈主电脑具备东谈主工智能功能。

固然苹果公司莫得使用“NPU”(神经网罗贬责单位)这个术语,但其MacBook电脑里面搭载的M系列芯片如实包含一个专用的神经网罗引擎。苹果公司还在最新的iPhone A系列芯片中内置了神经网罗加快器。

“这对咱们来说很高效,反映也很飞快。咱们知谈,咱们对用户体验的掌控力更强了。”苹果平台架构副总裁蒂姆·米勒在9月份继承CNBC独家采访时默示。

最新的安卓手机在其主芯片高通骁龙芯片中也内置了NPU,三星的Galaxy手机也配备了自家的NPU。NXP和英伟达等公司的NPU则为汽车、机器东谈主、相机、智能家居成立等镶嵌式东谈主工智能提供能源。

“大部分资金齐流向了数据中心,但跟着时辰的推移,这种情况将会改动,因为咱们将把东谈主工智能部署到咱们的手机、汽车、可穿着成立以及多样其他应用中,其应用进程将比当今高得多,”米勒说。

此外,还有现场可编程门阵列(FPGA),它不错在制造完成后通过软件进行重新配置。固然FPGA比NPU或ASIC活泼得多,但其原始性能和能效在AI责任负载方面齐较低。

2022 年,AMD 以 490 亿好意思元收购了 Xilinx ,成为最大的 FPGA 制造商;英特尔凭借2015 年以167 亿好意思元收购 Altera位居第二。

这些想象东谈主工智能芯片的公司齐依赖一家 公司来出产 通盘芯片:台积电。

台积电在亚利桑那州新建了一座巨型芯片制造厂,苹果公司已欢跃将部分芯片出产滚动到那儿。昨年10月,英伟达首席实施官黄仁勋也默示,Blackwell GPU在亚利桑那州已全面投产。

尽管东谈主工智能芯片范畴竞争热烈,但要撼动英伟达的霸主地位并非易事。

纽曼说:“他们之是以能取适应今的地位,是因为他们凭借实力赢得了它,况且为此付出了多年的英勇。他们仍是赢得了斥地者生态系统的告捷。”

https://www.cnbc.com/2025/11/21/nvidia-gpus-google-tpus-aws-trainium-comparing-the-top-ai-chips.html

*免责声明:本文由作家原创。著作现实系作家个东谈主不雅点,半导体行业不雅察转载仅为了传达一种不同的不雅点,不代表半导体行业不雅察对该不雅点赞同或补助,要是有任何异议,接待估量半导体行业不雅察。

今天是《半导体行业不雅察》为您共享的第4233期现实,接待体恤。

加星标第一时辰看推送,小号防走丢

求保举

fund开云体育(中国)官方网站

回到顶部
服务热线
官方网站:www.0317dhty.com
工作时间:周一至周六(09:00-18:00)
联系我们
QQ:24717437882
邮箱:6f770a3c@outlook.com
地址:新闻动态科技园6769号
关注公众号

Powered by 开云(中国)Kaiyun·体育官方网站-登录入口 RSS地图 HTML地图

Powered by365站群
开云(中国)Kaiyun·体育官方网站-登录入口-开云体育(中国)官方网站推理不错在性能较低的、专为特定任务想象的芯片上进行-开云(中国)Kaiyun·体育官方网站-登录入口