📢 Gate广场专属 #WXTM创作大赛# 正式开启!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),总奖池 70,000 枚 WXTM 等你赢!
🎯 关于 MinoTari (WXTM)
Tari 是一个以数字资产为核心的区块链协议,由 Rust 构建,致力于为创作者提供设计全新数字体验的平台。
通过 Tari,数字稀缺资产(如收藏品、游戏资产等)将成为创作者拓展商业价值的新方式。
🎨 活动时间:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 参与方式:
在 Gate广场发布与 WXTM 或相关活动(充值 / 交易 / CandyDrop)相关的原创内容
内容不少于 100 字,形式不限(观点分析、教程分享、图文创意等)
添加标签: #WXTM创作大赛# 和 #WXTM#
附本人活动截图(如充值记录、交易页面或 CandyDrop 报名图)
🏆 奖励设置(共计 70,000 枚 WXTM):
一等奖(1名):20,000 枚 WXTM
二等奖(3名):10,000 枚 WXTM
三等奖(10名):2,000 枚 WXTM
📋 评选标准:
内容质量(主题相关、逻辑清晰、有深度)
用户互动热度(点赞、评论)
附带参与截图者优先
📄 活动说明:
内容必须原创,禁止抄袭和小号刷量行为
获奖用户需完成 Gate广场实名
和H100相比,英伟达的H20、L20 和 L2 芯片性能如何?
原文来源:硬 AI
这两天,英伟达“钻空子”突破美国AI限制,推出中国市场“特供型号”,准备继续向中国公司出售高性能GPU的传闻闹得沸沸扬扬。
据媒体最新报道,英伟达即将推出至少三款新的AI芯片,包括 H20 SXM、PCIe L20 和 PCIe L2,以替代此前被美国限制出口的H100。这三款芯片均基于Hopper GPU 架构,最高理论性能可达296TFLOP(每秒浮点运算次数,也叫每秒峰值速度)。
那么,和H100相比,英伟达H20、L20、L2三款“特供型号”芯片的性能如何呢?
理论上,H100比H20的速度快了6.68倍。据分析师Dylan Petal最新发布的一篇博文,即使H20的实际利用率能达到90%,其在实际多卡互联环境中的性能仍只能接近H100的50%。
也有媒体称,H20的综合算力仅相当于H100的20%,而且由于增加了HBM显存和NVLink互联模块,算力成本会显著提高。
不过,H20 的优点也很明显,在大语言模型(LLM)推理方面比H100快了20%以上。理由是H20在某些方面与明年要发布的下一代超级AI芯片H200相似。
英伟达已经做出这三款芯片的样品,H20 和 L20预计将于今年 12 月推出,而 L2将于明年 1 月推出。产品采样将于发布前一个月开始。
01
「H20 Vs. H100」
先来看H100,拥有80GB HBM3内存,内存带宽为3.4Tb/s,理论性能为1979 TFLOP,性能密度(TFLOPs/Die size )高达19.4,是英伟达当前产品线中最强大的GPU。
H20,拥有96GB HBM3内存,内存带宽高达4.0 Tb/s,均高于H100,但计算能力仅为296 TFLOP,性能密度为2.9,远不如H100。
另外,该GPU的热设计功耗为400W,低于H100的700W,并且在HGX解决方案(英伟达的GPU服务器方案)中可以进行8路GPU的配置,它还保留了900 GB/s的NVLink高速互联功能,同时还提供了7路MIG(Multi-Instance GPU,多实例GPU)的功能。
H100 SXM TF16(Sparsity)FLOPS = 1979
H20 SXM TF16(Sparsity)FLOPS = 296
根据Peta的LLM性能对比模型表明,H20在moderate batch size下峰值token/秒,比H100高出20%,在low batch size下的token to token延迟比H100还要低25%。这是由于将推理所需的芯片数量从2个减少到1个,如果再使用8位量化,LLAMA 70B模型可以在单个H20上有效运行,而不是需要2个H100。
值得一提的是,H20的计算能力虽然只有296个TFLOP,远不及H100的1979个,但如果H20的实际利用率MFU(目前H100的MFU仅为38.1%),这意味着H20实际能跑出270 TFLOPS,那么H20在实际多卡互联环境中的性能接近H100的50%。
从传统计算的角度来看,H20相比H100有所降级,但在LLM推理这一方面,H20实际上会比H100快了20%以上,理由是H20在某些方面与明年要发布的H200相似。注意,H200是H100的后继产品,复杂AI和HPC工作负载的超级芯片。
02
「L20和L2配置更精简」
与此同时,L20配备48 GB 内存和计算性能为239个TFLOP,而 L2 配置为 24 GB 内存和计算性能193个TFLOP。
L20基于L40,L2基于L4,但这两款芯片在LLM推理和训练中并不常用。
L20和L2均采用 PCIe 外形规格,采用了适合工作站和服务器的PCIe规格,相比Hopper H800和A800这些规格更高的型号,配置也更加精简。
L40 TF16 (Sparsity) FLOPs = 362
L20 TF16 (Sparsity) FLOPs = 239
L4 TF16 (Sparsity) FLOPs = 242
L2 TF16 (Sparsity) FLOPs = 193