新闻中心

EEPW首页 > 智能计算 > 市场分析 > AI战场炮火纷飞

AI战场炮火纷飞

作者: 时间:2023-10-25 来源:半导体产业纵横 收藏

芯片领域,是无可争议的霸主。今年中旬,市值突破万亿美元大关,仅次于苹果、微软、Alphabet 和亚马逊,成为美国第五大市值公司。

本文引用地址://www.cghlg.com/article/202310/452050.htm

预计今年 Q3 营收为 160 亿美元,同比增长约 170%,这一数字几乎是一年前水平的 3 倍。业绩暴走是市场火热的象征,英伟达创始人兼首席执行官黄仁勋表示:「一个新的计算时代已经开始。全球各地的公司正在从通用计算向加速计算和生成式 转型。」

与此同时, 芯片成为各家企业逐鹿的一个战略重地,这也意味着英伟达在业绩高涨的同时,还需要面对来自市场竞争的压力,这些压力不仅来自于 AMD 和英特尔等劲敌,还有许多雄心勃勃的初创公司。

AMD 和 Intel「围攻」英伟达

AMD:补软件短板,锻硬件长板

AMD 呼声比较高的两款产品是 MI250 和 MI300。MI250 在 2021 年年底发布,从发布之时 AMD 公布的基准测试结果来看,AMD Instinct MI250X 对比 NVIDIA A100 占据了绝对的性能优势,是对方的 1.4 倍到 3.05 倍之间,当时 AMD 宣称 Instinct MI250X 是世界上性能最强的 HPC 计算卡。

虽然硬件规格高是 AMD 的一项优势,软件生态环境弱却是 AMD 的劣势。今年 6 月,AMD 推出大语言模型专用的最新加速卡 Instinct MI300X。据 AMD 首席执行官苏姿丰介绍称,MI300X 提供的高带宽内存(HBM)密度是英伟达 H100 的 2.4 倍,HBM 带宽是竞品的 1.6 倍。

与 MI250 相似的问题出现在 MI300X 中,尽管硬件规格参数强悍,但目前 MI300X 还未被广泛应用。不过,MI300X 在 AI 市场的呼声还是比较高的,华尔街分析师普遍认为,AMD 的这款芯片将对目前掌握 AI 芯片市场逾八成份额的英伟达构成有力挑战,这款 MI300X 加速器,有望替代英伟达的同类产品。

天风国际分析师郭明錤也在社交平台上表示,AMD 的 AI 芯片出货量预计在 2024 年、2025 年快速增长。到 2024 年,AMD 的 AI 芯片出货量(主要是 MI300A)预计将达到英伟达出货量的约 10%,微软有望成为 AMD AI 芯片的最大客户,紧随其后的是亚马逊。如果微软与 AMD 的合作进展顺利,AMD 获得 Meta 和谷歌的订单,预计 2025 年 AMD 的 AI 芯片出货量将达到英伟达(基于 CoWoS 封装技术)的 30% 或更多。

为了补齐短板,AMD 不断招兵买马,扩大 AI 技术实力。

10 月 10 日,AMD 在官网宣布,其已签署收购开源 AI 软件公司 Nod.ai 的最终协议,此举旨在增强公司的开源 AI 能力。Nod.ai 加入 AMD 将带来一支经验丰富的团队,该团队开发了业界领先的软件技术,可加速针对 AMD Instinct 数据中心加速器、RyzenAI 处理器、EPYC 处理器、Versal SoC 和 Radeon GPU 等优化 AI 解决方案的部署。

AMD 人工智能集团高级副总裁 Vamsi Boppana 表示:「收购 Nod.ai 预计将大大增强我们为 AI 客户提供开发软件的能力,使他们能够轻松部署针对 AMD 硬件调整的高性能 AI 模型。」

今年 8 月,AMD 宣布收购法国 AI 初创公司 Mipsology。Mipsology 成立于 2015 年,是 AMD 的长期合作伙伴,此前一直为 AMD 开发 AI 推理与优化解决方案和工具。

可以看到,AMD 正大举投资于 AI 芯片所需的关键软件,以追赶头号对手英伟达。

Intel:用性价比挑战英伟达

在 GPU 领域,英特尔也将向英伟达发起挑战。从英特尔的动作看,今年最受关注的便是 Gaudi 系列。

2022 年,英特尔宣布,推出第二代深度学习芯片 Habana Gaudi 2 和 Habana Greco,分别用于 AI 训练和 AI 推理。随后在今年 7 月,英特尔为中国市场推出定制版深度学习处理器 Habana Gaudi 2,可用于加速 AI 训练及推理,包括浪潮信息、新华三、超聚变等公司,预计将推出搭载 Gaudi 2 的服务器产品。

Gaudi 2 作为一款专用 AI 加速芯片,虽在性能上落后于目前英伟达最高端的 H100 芯片,但相比英伟达的通用 GPU A100 和 H100,其服务器成本更低,价格优势也更为明显。

针对中国市场推出定制版的 Gaudi 2,英特尔争夺市场的野心可见一斑。之后英特尔新路线图的公布再次证明这一点。

今年 9 月,在美国圣何塞举办的英特尔 On 技术创新大会上,基辛格亮出了英特尔最新的三代 AI 芯片路线图,其中采用 5nm 制程的 Gaudi 3 将于 2024 年推出,再下一代 AI 芯片代号为 Falcon Shores,计划于 2025 年推出。其中 Gaudi 3 的算力将达到 Gaudi 2 的两倍,网络带宽、HBM 容量将达到 Gaudi 2 的 1.5 倍。

Habana 原为以色列初创芯片公司,2016 年成立,旗下产品曾渗透进入中国主要互联网公司,2019 年 12 月,英特尔以 20 亿美元收购 Habana。规划中的 AI 新品 Falcon Shores 将在 Habana 的架构基础上,和英特尔原有的 GPU 等技术进行融合,因此 Falcon Shores 也备受业内关注。

与 AMD 一样,英特尔亦极其看重 AI 芯片的软件生态建设,英特尔正在加快构建一个开放的 AI 软件生态系统,以打破专有的封闭式生态系统格局。

英特尔公司执行副总裁数据中心与人工智能事业部总经理 Sandra L. Rivera 称,从英特尔看到,开发者通常从 Pytorch、Tensor Flow 等 AI 框架层从事 AI 创新工作,在底层方面,英特尔采用了 OneAPI(一种统一编程模型和应用程序接口)对标英伟达的 CUDA,利用 OneAPI 提供的优化库,希望以打包的平台方案整合自家庞杂的产品路线,降低客户对底层硬件差异的敏感度。

英特尔正通过不断优化的软硬件组合,实现最佳的性能和规模,从而迈向「让 AI 无处不在」的目标。

在 ChatGPT 引发的大模型热潮中,大模型训练需求增多,使得英伟达用于训练大模型的 A100/H100 更加稀缺。除英特尔与 AMD 外,也不乏有一些云服务器等科技巨头下场自研 AI 芯片。

微软、OpenAI 等科技巨头自研 AI 芯片

10 月 6 日,据外媒 The Information 报道,微软即将于下个月公布自行研发的 AI 芯片,从而协助减少对英伟达 GPU 的依赖,该 AI 芯片代号为 Athena,预计微软将在 11 月 14-17 日的 Ignite 开发者大会上宣布这款自行研发的芯片。

同一天,媒体消息称,ChatGPT 开发商 OpenAI 也正在探索 AI 芯片的可能性,并已评估潜在的收购目标,以加速自研芯片的进程。

据悉,自 2019 年以来,微软就开始研发一款名为"雅典娜"(Athena)的定制 AI 芯片,用于为大型语言模型提供动力,目前已在测试阶段。同年,微软向 ChatGPT 的所有者 OpenAI 投下 10 亿美元,随后在今年 1 月微软再向 OpenAI 加注 100 亿美元。

据悉,与 OpenAI 合作之后的微软每个月可能需要数十万颗英伟达芯片,也正因此 Athena 的首个目标是为 OpenAI 提供算力引擎,以替代昂贵的英伟达 A100/H100。如果明年大规模推出,Athena 将允许微软内部和 OpenAI 的团队同时训练和推理模型。

SemiAnalysis 的分析师迪伦·帕特尔(Dylan Patel)表示,开发类似于雅典娜的芯片可能每年需要花费 1 亿美元左右,ChatGPT 每天的运营成本约 70 万美元,大部分成本来源于昂贵的服务器,如果雅典娜芯片与英伟达的产品拥有同等竞争力,每个芯片的成本将可以降低三分之一。

不只是微软和 OpenAI,为了降低成本、减少对英伟达的依赖、提高议价能力,谷歌、亚马逊、Meta 等科技巨头们都已下场自研 AI 芯片。

想要在 AI 热潮中分得一口汤的还有不少野心勃勃的初创公司。

雄心勃勃的初创公司

2019 年创立的 d-Matrix

今年 9 月,位于美国硅谷的 AI 芯片初创公司 d-Matrix 获得 1.1 亿美元的 B 轮融资,由新加坡顶尖投资公司淡马锡(Temasek)领投,加州风投公司 Playground Global、微软和三星等 14 家投资者跟投。

d-Matrix 由两位 AI 硬件领域的资深人士 Sid Sheth 和 Sudeep Bhoja 于 2019 年 5 月创立。据领英显示,d-Matrix 目前有大约 100 名员工,公司致力于构建一种使用存内计算(In-Memory Computing,IMC)技术和芯片级横向扩展互连进行数据中心 AI 推理的新方法。据称,该处理器将提供比 CPU 和 GPU 更快的 AI 推理性能,适用于大型 Transformer 模型。

d-Matrix 认为,在 AI 领域虽然存在英伟达这样难以撼动的龙头企业,但自己与英伟达不同,部分原因在于其技术针对的是 AI 处理过程中的「推理」(Inference)环节,而不是通过制造训练大型 AI 模型的技术来与英伟达竞争。基于 Transformer 的模型通常在高性能 GPU 上进行训练,但执行推理是一个能效问题,而不仅仅是性能问题。d-Matrix 提出了一种创新解决方案,声称可以将硬件的效率提高 10-30 倍。

据悉,微软已承诺在明年公司研发的芯片推出时对其进行评估。d-Matrix 公司预计今年将获得 1000 万美元左右的收入,主要来自购买芯片进行评估的客户;预计两年后年收入将达到 7000 万至 7500 万美元,实现收支平衡。

2018 年成立的 Rain Neuromorphics Atomic Semi Cerebras

Rain Neuromorphics Atomic Semi Cerebras 由台积电前工程副总 Keith McKay 在 2018 年创立,总部位于美国加利福尼亚州,曾以推出超大芯片而引发关注。

其 AI 超算处理器 Cerebras WSE 比 iPad 还要大。二代拥有 2.6 万亿个晶体管和 85 万个 AI 优化内核。它们还发布过一种 brain-scale 技术,可以运行超过 120 万亿个连接的神经网络。今年 Cerebras 还一口气开源了 7 个 GPT 模型,参数量分别达到 1.11 亿、2.56 亿、5.9 亿、13 亿、27 亿、67 亿和 130 亿,同时 Cerebras 也提供大模型训练推理等云服务。

目前为止,该公司已融资 7.2 亿美元。据悉,OpenAI 已参投了至少三家芯片公司,Rain Neuromorphics 就在列,其余两家是 Cerebras 和 Atomic Semi。

2022 年创立的 Modular

Modular 是一家美国的初创企业,成立于 2022 年。去年 6 月,Modular 完成了由 GV 领投、Greylock、SV Angel 和 The Factory 参与的 3000 万美元种子轮融资。随后在今年 8 月,Modular 又获得了 1.3 亿美元的 A 轮融资,本轮融资由 General Catalyst 领投,GV、SV Angel 等参与。

Modular 表示,英伟达的 CUDA 软件用于编写只能在其 GPU 上运行的机器学习应用程序,而它们通过其软件为企业提供了另一种选择,使开发者可以更简单地在其他公司设计的芯片上训练和运行机器学习模型,例如英特尔、AMD 和 Google。它还提高了这些芯片的性能,意味着它们可以用来训练更强大的人工智能模型。

除了上述几家公司之外,2017 年成立并致力于使用硅光芯片实现深度学习的美国 AI 初创公司 Lightmatter、2022 年成立并致力于开发用于文本应用的大语言模型(LLM)专用芯片的公司 MatX、成立于 2022 年并旨在使人工智能计算更具可访问性和可负担性的公司 Tiny Corp 都在努力成为具有分量的挑战选手。

英伟达的战略

英伟达面临来自 AMD、英特尔以及一系列大型科技、初创公司的竞争,这是一个极为突出的话题。英伟达有它难以超越的优势也自然有不可避免的劣势。

先看优势。英伟达占据全球数据中心 AI 加速市场 82% 的份额,以 95% 的市场占有率垄断了全球 Al 训练领域的市场,也就是说,即使当下已经有诸多公司进入 AI 市场,但是这些没有市场优势的公司可能也难以产生足够的利润。

此外,虽然 AMD 和英伟达都能提供不同价位和性能的 GPU 产品,但在性能方面,英伟达拥有明显的整体领先优势。这一标准更是这些初创公司难以短期内达到的,虽然如今的 AI 市场中已有部分主要参与者开始试验新的 AI 芯片和工具,但倘若想要以性价比取胜,仍需很长时间。

再看劣势。首当其冲便是价格,昂贵的单价也是劝退多家科技巨头依赖外购芯片的主因。另外英伟达提供的全栈服务结合了硬件和软件解决方案,但这种全栈服务也可能成为吸引新客户的阻力。很少有大客户愿意永久依赖于一个生态系统,这会使他们在未来处于价格劣势。这也是亚马逊拒绝英伟达的 DGX 云平台的原因之一,相比之下 AMD 可以为客户提供更大的灵活性。

如此看来,想必在未来几年,英伟达将面临激烈的竞争,能否守住龙头地位,成为英伟达面临的重要问题。



关键词: AI 英伟达

评论


相关推荐

技术专区

关闭