75% 创业公司意味什么 AI 对 H100 算力价格暴跌

买不如租

| Eugene Cheah

OneFlow 编译

原标题:2美元/小时出租H100:GPU泡沫破灭前夜

红杉资本的报告曾指出,AI 产业的年产值超过 6000 亿美元,才够支付数据中心、加速 GPU 卡等 AI 基础设施费用。而现在一种普遍说法认为,基础模型训练的资本支出是「历史上贬值最快的资产」,但关于 GPU 基础设施支出的判定仍未出炉,GPU 土豪战争仍在进行。尤其是,以 OpenAI 为代表的大模型公司在训练+推理上的支出超过了收入,最近他们在有史以来最大的风险投资轮中筹集了 66 亿美元,同时预计 2026 年的亏损将达到 140 亿美元。

近期,NVIDIA 的新一代 Blackwell 系列芯片交付给了 OpenAI,他们还表示接下来一年的产品已经售罄,NVIDIA CEO 黄仁勋指出这可能是行业历史上最成功的产品。与此同时,AMD CEO 苏姿丰推出了 MI325X,而 AI 推理芯片公司 Cerebras 提交了 IPO 申请。

随着数十亿美元投入到 AI 基础设施层,这会促进 AI 上层的繁荣还是泡沫?现在,是时候深入探讨 GPU 市场的时候了。

本文 Eugene Cheah 深入研究了 H100 市场,可能为即将到来的 Blackwell 芯片的未来走向提供一些参考。他指出,由于预留计算资源的转售、开放模型的微调以及基础模型公司的减少,市场上的 H100 算力已经供过于求,尤其是 H100 从去年以 8 美元/小时到现在多家算力转售商以低于 2 美元/小时的价格出租。经过深度分析后,他建议用户在需要时租用而不是购买算力。

AI 竞赛简史

2022 年 11 月 30 日,基于 A100 GPU 系列训练的 GPT3.5 与 ChatGPT 仿佛一夜之间吸引了全世界对 AI 的想象,并开启了 AI 竞赛。2023 年 3 月 21 日,随着惊人的 AI 势头,H100 很快就来了。

如果 OpenAI 可以用「旧」的 A100 构建智能,那么使用新推出的性能高 3 倍、价格多 2 倍的 H100,你也能够构建一个更大、更好的模型,甚至可能超越 OpenAI 率先到达 AGI——如果你的财力比 OpenAI 还雄厚。

第一个成功实现这一目标的 AI 公司,将获得新 AI 经济中的一大块份额——每一个分析师的粗略计算都表明,取代通用的人类智能将意味着数万亿美元的市场。如果能够成功,你将比地球上一半的国家或历史上任何王国都要富有。怀着这样的渴望,有 100 亿到 1000 亿美元的资金投入到 AI 公司和创始人身上,以推动新一轮科技革命,这导致 H100 的需求突然激增。

市场价飙升,H100 的初始租赁价格约为 4.70 美元/小时,但实际价格超过了 8 美元/小时。所有急切的创始人纷纷涌入,急于训练他们的模型,以说服投资者进行下一轮亿级美元的融资。

在 2023 年的投资者会议上,英伟达向他们的投资者和数据中心客户推介了以 4 美元/小时的价格出租 H100 的「市场机会」。

对于 GPU 农场来说,这感觉像是不劳而获的钱——如果你能让这些创始人以 4.70 美元/小时或更高的价格租用你的 H100 SXM GPU,甚至让他们提前支付,投资回报期将少于 1.5 年。从那以后,每个 GPU 每年将带来超过 10 万美元的现金流。

由于 GPU 需求似乎没有尽头,他们的投资者同意了,甚至进行了更大规模的投资……

《郁金香狂热》——描绘了有记录以来历史上第一次投机泡沫,郁金香价格在 1634 年持续攀升,并于 1637 年 2 月崩盘。

六千亿美元的投资之后

与数字商品不同,实物商品会受到延迟发货的影响,尤其是在多次发货延迟的情况下。2023 年的大部分时间里,H100 的价格感觉会永远高于 4.70 美元/小时以上(除非你愿意支付一大笔预付款)。2024 年初,H100 的价格在多个供应商那里降至大约 2.85 美元/小时。

然而,随着更多供应商的加入……我开始收到这样的邮件:

虽然我未能以 4 美元/小时的价格获得 H100 节点(8 个 H100),但我多次确认,你可以以 8 到 16 美元/小时的价格获得。

2024 年 8 月,如果你愿意竞拍一小段时间的 H100 使用时间(几天到几周),你可以找到 1-2 美元/小时的 H100。

尤其对于小型集群而言,我们正面临着每年至少 40% 的价格下跌。NVIDIA 预测的 4 美元/小时的 GPU 价格在 4 年内保持不变,但不到 1.5 年就烟消云散了。

这非常可怕,因为这意味着有人可能会被套牢——尤其是如果他们刚刚购买了新的 GPU。那么,到底发生了什么?

一张 H100 SXM GPU

的投资回报率(ROI)

是多少?

这里将重点关注经济成本和租赁的 ROI,对比不同的市场价格,不包括机会成本或业务价值。

在数据中心,平均一张 H100 SXM GPU 的设置、维护和运营成本(即大部分资本支出)为 5 0000 美元或更多,不包括电费和冷却的运营成本。本文后面将提供更详细的计算方法。

但对今天的单元经济和投资意味着什么?特别是假设 GPU 的使用寿命为 5 年的情况下。

通常,H100 的租赁业务模式有两种,我们将会覆盖这两种模式。

按需租赁的 ROI

新的 H100 ROI(2024 年 8 月)

总结来说,对于按需工作负载:

对于上述 ROI 和收入预测,我们引入了「混合价格(blended price)」,假设租赁价格在 5 年内逐步下降 50%。

鉴于我们目前看到的每年价格下降>=40%,这可以被视为一个保守/乐观的估计,但这是一种通过考虑一定比例的价格下降的同时来预测 ROI 的一种方法。

在 4.50 美元/小时的情况下,即使考虑混合价格,我们也能看到 NVIDIA 最初对数据中心提供商的承诺,即在 2 年后几乎可以「印钞」,内部收益率(IRR)超过 20%。

然而,在 2.85 美元/小时的情况下,IRR 刚刚超过 10%。

这意味着,如果你今天购买新的 H100 服务器,并且市场价低于 2.85 美元/小时,你的投资回报率几乎只能勉强与市场基本回报水平持平,并且假设使用率是 100%(这是一个不合理的假设)。任何低于这个价格的情况,作为投资者,投资 H100 基础设施公司不如投资股市。

如果价格降至 1.65 美元/小时以下,作为基础设施提供商,在 5 年内使用 H100 注定会亏损 ,特别是如果你今年刚刚购买了节点和集群。

长期预订租赁(3 年+)

许多基础设施提供商,尤其是那些较老的公司,并不是对此一无所知——因为他们曾经亲身经历过 GPU 租赁价格在加密货币时代大幅上涨后的急剧跳水,他们已经经历过这种周期。

因此,在这一周期中,去年他们大力推动 3-5 年的前期承诺和/或支付,价格在 4 美元/小时以上(通常预付 50% 到 100%)。 今天,他们推动的价格范围在 2.85 美元/小时以上,以锁定他们的利润。

这种情况在 2023 年 AI 高峰期尤为明显,尤其是在图像生成领域,许多基础模型公司被迫签订高价的 3-5 年合同,只是为了在新集群客户中排在前面,成为第一个推出目标模型的公司,以促进完成下一轮融资。

这可能不是最经济的举措,但可以让他们比竞争对手更快地行动。

然而,这导致了一些有趣的市场动态——如果你在未来 3 年内以 3 美元或 4 美元/小时的价格签订了合同,那么你将被合同绑定。当模型创建者完成模型训练后,他们不再需要这个集群后会怎么做?—— 他们转售并开始收回部分成本。

当前 H100 的价值链

从硬件到 AI 推理/微调,可以大致分为以下几个方面:

虽然堆栈中的任何一层都可能实现垂直整合(例如跳过基础设施提供商),但关键驱动因素是 「未使用算力资源的转售商」 和「足够好」的开放权重模型(如 Llama 3)的兴起,这些因素都是当前 H100 经济压力的主要影响因素。

开放权重模型的兴起,其性能与闭源模型相当,正在导致市场发生根本性的变化。

市场趋势:

开放权重模型的兴起

对 AI 推理和微调的需求增加:由于许多「开放」模型缺乏适当的「开源」许可证,但仍然被免费分发和广泛使用,甚至用于商业用途。在这里,我们将统称它们为「开放权重」或「开放」模型。

总体而言,随着各种大小的开放权重模型的不断构建,对这些模型的推理和微调的需求也在增长。这主要由两个重大事件推动:

GPT-4 级别的开放模型的出现 (例如,4050 亿参数的 LLaMA3,DeepSeek-v2)

小型(约 80 亿参数)和中型(约 700 亿参数)微调模型的成熟和采用

如今,对于大多数企业可能需要的用例,已经有现成的开放权重模型。这些模型在某些基准测试中可能略逊于专有模型,但提供了以下优势:

灵活性 :特定领域/任务的微调。

可靠性 :不再有小的模型更新导致用例失效(目前,社区对模型权重在没有通知的情况下在公共 API 端点上悄悄更改导致不可解释的效果退化缺乏信任度)。

安全性和隐私 :确保他们的提示词和客户数据的安全。

所有这些因素都导致了当前开放模型的持续增长和采用,以及对推理和微调需求的增长。

但这确实带来了另一个问题……

小型和中型模型创建者的崩溃

基础模型创建市场萎缩(小型和中型):我们用「模型创建者」来统称从零开始创建模型的组织。对于微调者,我们称他们为「模型微调者」。

许多企业,以及多个小型和中型基础模型创建初创公司——尤其是那些以「更小、更专业领域模型」为卖点的公司——都是没有长期计划或目标从零开始训练大型基础模型(>= 700 亿参数)的群体。

对于这两个群体,他们都意识到,微调现有的开放权重模型比「自行训练」更经济和高效。

这最终导致了对 H100 需求的三重打击!

微调比从零开始训练便宜得多

微调的计算需求显著较低 (通常需要 4 个节点或更少,通常是一个节点),而从零开始训练则需要 16 个节点或更多(对于 70 亿参数及以上的模型需要更多节点)。

这一行业转变基本上消灭了大量小型集群的需求。

减少对基础模型的投资(小型和中型)

2023 年,文本和图像领域出现了大量小型和中型基础模型。

然而,如今,除非你非常有信心能够超越 LLaMA3,或者你带来了新的东西(例如,新的架构、100 倍更低的推理延迟、100 多种语言支持等),否则几乎没有新的基础模型公司从零开始构建模型。

总体而言,大型玩家(如 Facebook 等)创建的小型和中型开放模型,使得小型玩家很难证明训练基础模型的合理性——除非他们有强大的差异化优势(技术或数据)——或者有计划扩展到更大的模型。

这一点在投资者中也有所反映,因为新的基础模型创建者的资金急剧减少。大多数小型团队已经转向微调。(这种情绪与最近多家公司不尽如人意的退出相吻合。)

目前,据我估计,全球大约有:<20 个大型模型创建团队(即 700 亿参数及以上模型,也可能创建小型模型);<30 个小型/中型模型创建团队(70 亿到 700 亿参数模型)。

总体而言,全球只有不到 50 个团队在任何时间点会需要 16 个节点的 H100(或更多)来进行基础模型训练。

全球有超过 50 个 H100 集群,每个集群拥有超过 16 个节点。

预留节点的过剩算力资源正在上线

对于集群所有者,特别是那些在 2023 年初「抢购」中进行了长期租赁的各种基础模型初创公司和风险投资公司。

由于转向微调,以及 H100 交付时需要非常长的等待时间(最高峰时达到 6 个月或更长),许多团队可能在做出改变之前已经支付了预付款,这使得他们的预付硬件「到货即过时」。

另一方面,那些硬件按时到货,用于训练最初几个模型的团队,也意识到最好在下一次迭代中微调模型会更好,而不是自行构建新模型。

在这两种情况下,他们都会有未使用的算力资源,这些过剩资源通过「算力转售商」进入市场供应。

导致算力供应增加

和训练需求减少

的其他因素

大型模型创建者离开公共云平台

另一个主要因素是,所有主要的模型创建者,如 Facebook、X.AI,以及 OpenAI(如果你认为它们是微软的一部分),都在从现有的公共云提供商转向,通过构建自己的数十亿美元规模的集群,从而减少了对现有集群的依赖。

这一转变主要出于以下几个原因:

随着需求逐渐分阶段减少,这些集群正在进入公共云市场。

Vast.ai 基本上实行的是自由市场系统,全球的供应商被迫相互竞争。

未使用/延迟供应的算力上线

回忆一下 2023 年的 H100 大批量发货延迟,或 6 个月或更长时间?这些延迟的算力供应现在正在上线,同时还有 H200、B200 等芯片。

这还伴随着各种未使用的算力资源上线(来自现有的初创公司、企业或风险投资公司,如前所述)。

这些资源的大部分是通过算力转售商上线的,例如:together.ai、sfcompute、runpod、vast.ai 等。

在大多数情况下,集群所有者拥有的是一个小型或中型集群(通常为 8-64 个节点),这些集群的利用率较低。而购买这些集群的资金已经「花掉」了。

为了尽可能收回成本,他们更愿意以低于市场价的方式保证资源的分配,而不是与主要提供商竞争。

这通常通过固定费率、拍卖系统或自由市场列表等方式实现。后两种方式通常会推动市场价格下降。

更便宜的 GPU 替代品(特别是用于推理)

另一个主要因素是,一旦你离开训练/微调领域,特别是如果你运行的是较小的模型,推理领域充满了替代方案。

你不需要为 H100 的 Infiniband 和/或 Nvidia 的高端功能支付溢价。

a) Nvidia 市场细分

H100 的高端训练性能已经反映在硬件价格中。例如,Nvidia 自己推荐 L40S,这是一个在推理方面更具价格竞争力的替代方案。

H100 Infiniband 集群(2024 年 8 月)

L40S 的性能是 H100 的 1/3,价格是 H100 的 1/5,但不适合多节点训练。这在一定程度上削弱了 H100 在这个细分市场的竞争力。

b) AMD 和 Intel 的替代提供商

AMD 和 Intel 的 MX300 和 Gaudi 3 虽然进入市场较晚,但已经经过测试和验证。我们使用过这些系统,它们通常具有以下特点:

缺点?它们在训练时存在一些驱动问题,且在大型多节点集群训练中尚未得到验证。

然而,正如我们前面所讨论的,这在当前市场中并不重要。除了少数不到 50 个团队外,H100 市场已经转向推理和单节点或小集群微调。

这些 GPU 已经证明在这些用例中表现良好,能满足大多数市场的需求。

这两个竞争对手是完全的即插即用替代方案,支持现成的推理代码(如 VLLM)或大多数常见模型架构(主要是 LLaMA3,其次是其他模型)的微调代码。

因此,如果你已经解决了兼容性问题,强烈建议你考虑这些方案。

c) 加密货币/Web3 领域 GPU 使用量的下降

随着以太坊转向权益证明(Proof of Stake, PoS),ASIC 在比特币挖矿中占据主导地位,用于加密货币挖矿的 GPU 使用量呈下降趋势,在许多情况下甚至无利可图。这导致了大量的 GPU 涌入公共云市场。

虽然这些 GPU 中的大多数由于硬件限制(如低 PCIe 带宽、网络等)无法用于模型训练,甚至不适合用于推理,但这些硬件已经涌入市场,并被重新用于 AI 推理工作负载。

在大多数情况下,如果你的模型参数少于 100 亿,你可以以非常低的价格通过这些 GPU 获得出色性能

如果你进一步优化(通过各种技巧),甚至可以在这种硬件的小集群上运行 4050 亿参数的大型模型,成本低于一个 H100 节点。

H100 的价格正在变得像大宗商品一样便宜。甚至有些时候是以低于成本的价格出租——如果是这样,接下来该怎么办?

可能意味着是什么?

中立观点:H100 集群价格的分层

从宏观层面来看,预计大型集群仍然会收取溢价(>=2.90 美元/小时),因为对于真正需要它们的客户来说,没有其他选择。

我们已经开始看到这种趋势,例如在 Voltage Park,配备 Infiniband 的集群被收取更高的费用。而基于以太网的实例,对于推理任务来说已经足够好,其价格则定得较低。根据不同的使用场景和可用性调整价格。

尽管基础模型团队的数量总体上有所减少,但很难预测随着开放权重的增长和/或替代架构的出现,是否会迎来复苏。

同时,预计未来我们将看到按集群规模进一步分层。例如,一个拥有 512 个节点且配备 Infiniband 的大型集群,其每块 GPU 的收费可能会高于 16 个节点的集群。

消极观点:新的公共云 H100 集群进入市场较晚,可能无利可图——一些投资者可能会遭受损失。

如果你将价格定在 2.25 美元以下,根据你的运营成本(OPEX),你可能会面临潜在的无利可图的风险。如果你将价格定得过高,比如 3 美元或以上,你可能无法吸引足够的买家来最大化使用算力资源。如果你进入市场较晚,可能无法在早期以 4 美元/小时的价格收回成本。

总体而言,这些集群投资对于关键利益相关者和投资者来说将非常艰难。

虽然我怀疑这种情况会发生,但如果新集群在 AI 投资组合中占据了很大一部分,我们可能会看到由于投资者遭受损失而对融资生态系统产生连锁反应。

中立观点:中型到大型模型构建者,已经通过长期租赁榨取了算力价值

不同于消极看法,一种中立看法是,一些未使用的算力资源的模型构建者实际上已经支付了费用。资金市场已经将这些集群及其模型训练的成本计算在内,并「榨取了其价值」,用于他们当前和下一轮融资的筹码。

其中的大多数算力购买是在算力转售商流行之前进行的,成本已经计包含在内。如果有什么影响的话,他们是从多余的 H100 算力资源中获得的当前收入,而我们获得的是降价的算力资源,这对双方都是有利的。

如果情 况确实如此,市场负面影响将是最小的,整体上对生态系统来说是一个净正收 益。

正面观点:便宜的 H100 可能加速开放权重 AI 的采用浪潮

鉴于开放权重模型已经进入 GPT-4 级别的领域,H100 价格的下跌将成为开放权重 AI 采用的倍增器。

对于业余爱好者、AI 开发者和工程师来说,运行、微调和探索这些开放模型将变得更加实惠。特别是如果没有 GPT-5++这样的重大飞跃,这意味着开放权重模型与闭源模型之间的差距将变得模糊。

这是非常必要的,因为目前市场是不可持续的。应用层缺乏为付费用户创造价值的能力(这会影响到平台、模型和基础设施层)。

在某种程度上,如果大家都在造铲子,而没有构建能够吸引付费用户的 AI 应用(并且没有产生收入和价值)。但当 AI 推理和微调变得比以往任何时候都便宜时,这可能会激发 AI 应用的浪潮——如果这一趋势还没有缓慢开始的话。

结论:

不要购买全新的 H100

在新 H100 硬件上的支出很可能是亏损的。 除非你有以下某种组合:折扣的 H100、折扣的电力,或者有一个主权 AI 的需求(即你的 GPU 所在地对客户来说至关重要)。或者你有数十亿美元,需要一个超大型集群。

如果你在投资,建议考虑投资其他领域。或者投资股票市场指数以获得更好的回报率。

GPU 数据:Tech Power Up 数据库。A100 SXM 的 bf16 TFlops 为 624,H100 SXM 的 bf16 TFlops 为 1979。https://www.techpowerup.com/gpu-specs/h100-sxm5-80-gb.c3900

微软和 AWS 在 AI 基础设施上投入了超过 400 亿美元(华尔街日报,https://www.wsj.com/tech/ai/big-tech-moves-more-ai-spending-abroad-088988de)

英伟达投资者 PPT,2014 年 10 月,第 14 页的「数据中心」内容

https://s201.q4cdn.com/141608511/files/doc_presentations/2023/Oct/01/ndr_presentation_oct_2023_final.pdf

Semi Analysis:对 H100 集群的深入研究,组件的生命周期大约为 5 年(https://www.semianalysis.com/p/100000-h100-clusters-power-network)

新 H100 ROI(2024 年 8 月,https://docs.google.com/spreadsheets/d/1kZosZmvaecG6P4-yCPzMN7Ha3ubMcTmF9AeJNDKeo98/edit?usp=sharing)

H100 Infiniband 集群(2024 年 8 月,https://docs.google.com/spreadsheets/d/1Ft3RbeZ-w43kYSiLfYc1vxO41mK5lmJpcPC9GOYHAWc/edit?usp=sharing)

极客一问

你怎么看待大模型算力市场的「泡沫」

马斯克:我招人的时候一定会问的问题,就是跟我讲讲你的故事

点赞关注 极客公园视频号


英伟达又「拔」了一下AI的上限,意味着什么?

在2023的GTC会议上,英伟达推出了基于Hopper架构的H100显卡,并展示了包括机器学习工作站和超级计算机在内的多项产品。 引人注目的是,由8块H100显卡和4个NVLink组成的DGXH100巨型GPU,拥有6400亿个晶体管,AI计算能力达到32petaflops,配备的HBM3内存容量高达640GB。 此外,新推出的NVLINK Switch System能够将最多32台DGXH100系统互联,形成强大的计算集群。 这一系列的产品发布,不仅标志着英伟达再次提高了AI算力的上限,而且对于推动人工智能技术的进步和应用具有深远的影响。 同时,这也显示了英伟达在人工智能领域的技术领先地位和市场优势得到了进一步巩固。

英特尔突袭英伟达H100,新AI芯片训练快40%,推理快50%,CEO蹦迪庆祝

英特尔在深夜的舞台上,以一场CEO帕特·基辛格的蹦迪庆祝活动,展示了其最新AI芯片Gaudi 3,正式加入了与英伟达的直接竞争。 Gaudi 3的性能数据表明,其在AI模型训练速度上快了40%,推理速度更是提升了50%,足以让基辛格现场狂欢。

英特尔不仅在性能上与H200相当,甚至在某些领域超越,这源于Gaudi 3在Llama上的测试,包括Stable Diffusion和Whisper等AI大模型的训练和部署。 基辛格还展示了集成Gaudi 3的AI PC,能够高效处理邮件、语音和图像渲染任务,甚至生成了现场版的卡通基辛格,展现了强大的实时处理能力。

Gaudi 3采用5纳米工艺,将在今年第三季度大规模供应,涵盖戴尔、惠普和超微等多家公司。 尽管价格尚未公布,但英特尔的这次行动无疑为AIGC时代的算力提供了新的选择。 值得注意的是,英特尔在短时间内接连推出第六代Xeon,其中Sierra Forest和Granite Rapids架构展示了显著的性能提升和能效优势。

然而,网友们对英特尔采用旧技术如HBM2e存储芯片而非HBM3e的策略表达了关注,认为这是英特尔依靠资源和制造优势的传统。 至于能否与英伟达的最新产品B200抗衡,答案还留待时间揭晓。 但不可否认的是,英特尔的这次发布无疑为AI技术的加速发展增添了动力。

详情可参考:[1] /show/2134... [2] /intel-... [3] /it...

——量子位,关注AI技术动态——

华硕 ESC-N8-E11 NVIDIA HGX H100 8-GPU AI超算服务器配置

华硕ESC N8-E11是一款基于NVIDIA HGX H100 8-GPU的人工智能服务器,自7月份发布以来,市场关注度极高,订单已满至明年。 华硕作为少数具备全方位高性能运算解决方案资源的企业,包括服务器事业部门、台智云和华硕云端,使其在人工智能服务器/软件、数据中心基础架构开发方面具备强大实力。 ESC N8-E11服务器搭载八个NVIDIA H100 Tensor Core GPU,能够有效减少AI训练和运算时间。 该7U服务器由两个第四代Intel Xeon Scalable处理器驱动,配备专用的一对一NIC拓扑结构,支持最多八组网卡,满足高性能计算需求。 此外,其模块化设计可缩短系统组装时间,减少线材用量,降低风阻,提升散热。 ESC N8-E11采用第四代NVLink和NVSwitch技术,配合NVIDIA ConnectX-7 SmartNIC,支持GPUDirect RDMA、NVIDIA Magnum IO和NVIDIA AI Enterprise存储功能。 双层GPU、CPU机箱设计实现优异的散热、扩充性和强大性能。 同时,用户可通过液态冷却方案(D2C)降低数据中心的整体功耗使用效能(PUE)。 华硕认证的GPU服务器兼容Intel/AMD平台,支持四至八个GPU配置,在渲染和模拟数字孪生应用方面表现卓越。 其中ESC8000-E11最高支持八插槽的H100 PCIe GPU,提供更快的GPU互连和更高的频宽结构,轻松应对不断增长的AI、高算力工作需求。 CPU配置:Xeon Gold处理器可能在性能和价格平衡的情况下更合适,提供良好的性能和可靠性,价格相对经济实惠,适用于大多数中等至大型项目。 内存配置:支持DDR5 4800频率,支持的内存条类型见下图。 硬盘配置:支持M.2 NvMe固态硬盘和SATA固态硬盘,支持的硬盘型号见下图。 华硕ESC-N8-E11 NVIDIA HGX H100 8-GPU AI超算服务器配置介绍完毕。 后续我们将介绍技嘉通过NVIDIA认证的GPU服务器,包括G593-SD0-L、G593-SD2-A、G593-SD2-L、G593-ZD2-A、G593-SD0-A等NVIDIA HGX H100 8-GPU AI超算服务器。 欢迎关注我们,获取最新的NVIDIA HGX H100 8-GPU AI超算服务器采购信息。

双十一影像手机怎么选 华为Pura 70系列不容错过
AI神器破解百模争霸困局! 盒子 52万张GPU集群塞进一个