美国出口禁令之下,“天价芯片”流入黑市
2023-11-10 【 字体:大 中 小 】
去年 10 月份以来,有人开始在垂直社群中喊话出售面临美国出口管制的英伟达高端芯片,声称 A100、H100 等都有办法搞到。
" 少量 H100 芯片,有需要的私我。"
" 有没有需要英伟达 GPU A100,80G 的?原厂原装,9 片一箱。"
芯片社群中有人喊话出售英伟达芯片这些人往往备注直接—— " 英伟达芯片货源 ",不论是八九十人的小群还是几百人的大群,他们都会冒个泡,不少芯片行业群中都收到了类似的消息。
按照这些卖家的说法,可以提供现货,但无法稳定供应量,期货一般 8-14 周交付,"40% 定金,货到验货付尾款交付。"总会有人接茬问问价格、货源,能拿多少片,但成交与否不得而知,更多人只是观望。
知情人士称,这些卖家大多来自南方,拿货渠道隐秘,能把货从海外送到内地的指定地点,但并不包售后。行业社群之外,拼多多、小红书甚至是闲鱼等平台上,也偶有 " 货源 " 出现。
今年 10 月 17 日,美国更新出口管制条例后,英伟达 A800、H800、L40S 等更多芯片面临禁售,地下市场的 " 尖儿货 " 开始洗牌,这些隐秘的卖家又开始在社交、电商平台现身,以二手的形式转售被禁的先进芯片。
" 整机现货,欲购从速 "。4 万、13 万、25 万 ...... 不断变动并走高的价格,也引发从业者调侃:大概这是自去年 10 月禁售以来,我离天价芯片最近的一次。
A100,电商平台一搜就有
去年 10 月,美国商务部发布出口管制条例,限制算力上限为 4800 以及带宽上限 600 GB/s 的 AI 芯片向中国出口,英伟达 A100 面临禁售,彼时正值全球人工智能行业发展的高峰时期。
A100 是基于 Ampere 架构的 GPU 计算加速器,专为高性能计算、人工智能和机器学习等领域设计,拥有高达 6912 个 CUDA 核心和 40GB 的高速 HBM2 显存,是目前最强大的数据中心 GPU 之一。
Lambda 网站将 A100 与 V100 进行对比测试,结果显示,在卷积神经网络训练中,1 块 A100 的训练速度是 1 块 V100 的 2.2 倍,使用混合精度时,前者则是后者的 1.6 倍;在语言模型训练中,1 块 A100 的训练速度是 1 块 V100 的 3.4 倍;使用混合精度时,前者则是后者的 2.6 倍。
左图:A100 与 V100 卷积神经网络训练速度对比右图:A100 与 V100 语言模型训练速度对比
这还只是用了 A100 40GB 版本,80GB 版本的 A100 HBM2 位宽达 5120bit,显存带宽达 1935 GB/s,能支持更快的训练速度和更大模型容量,处理大规模并行计算的应用程序不在话下。
有从业者直白表示:" 你做出来的是人工智能,还是人工智障,全靠背后的算力支持,直接决定胜负。"
此次切断供应直接影响到大数据、云计算、自动驾驶、计算机等多个领域,很多企业被迫延迟甚至砍掉了开发计划。
为了规避出口管制,英伟达针对性地向中国市场推出 A800 和 H800 芯片,以满足中概互联企业的算力需求,但如果需要采购 A100 和 H100 这种在管制清单上的产品,就只能通过非官方渠道。
今年 4 月以来,社交、电商甚至二手电商平台上,开始有人报价 A100 芯片,也有一些帖子暗示自己有少量 A100 货源,价值不低于一台宝马。
社交平台上 A100 芯片售卖、租赁的帖子根据芯潮 IC 的跟踪观察,今年 2 月份,A100 即开始在国内以非官方渠道的形式流通,价格在 4 万元人民币左右,最低还卖过 2 万多元,随着 5 月份中概互联网企业卷起大模型热潮,A100 价格一路走高,最高成交价接近 25 万元,浮动范围极大。
有业内人士透露:" 一般一台服务器上需要装配 8 张显卡 ",按最高成交价 25 万元来算,一台服务器整机价格接近 200 万元。
人工智能产业对算力的渴望,让更高端的芯片也加入了非官方流通之列,到 6 月份,H100 的报价在上述渠道也多了起来。不少芯片社群里头顶 " 货源 " 的潜水销售们,也将自己的昵称悄悄改为 "H100 芯片货源 "。
公开资料显示,H100 相较于 A100,16 位推理速度上提升 3.5 倍,训练速度上提升 2.3 倍,如果用服务器集群运算的方式,训练速度更是能提高到 9 倍,自发布起就受到追捧。
亚马逊 CEO Adam Selipsky 就曾表示:"H100 是最先进的……即使对于 AWS 来说也很难获得。" 而这话,就连 OpenAI、Meta、微软这些科技巨鳄也非常想说。据江湖流传的小道消息,H100 甚至可以作为一种 " 敲门砖 ",初创公司以此找基金拿抵押贷款。
CoreWeave 抵押 H100 获得债务融资据外媒报道,9 月份,英伟达在日本的销售合作公司把 H100 价格调涨 16%,达 544 万日元(26.5 万元人民币)。
有价无市,一哄而上,作为市场主流,这两款芯片俨然是 AI 算力 " 硬通货 ",但因为出口管制,只能在社交、电商平台等非官方渠道流通。
在具体的询价过程中,有的店主表示 " 有单卡,模组和整机 ",但更多的手上只有少量的单片散货:" 现货 32 张,就看谁手快了 "。更有店主大方表示,这些产品没有保修或支持服务,但被问及发货地和货源时,回答会含糊一些," 海外发货,内地交付,但可以送到指定地点。"
有购买者向芯潮 IC 透露," 确有不少人在销售英伟达 GPU,但能否获得真正的 A100、H100,在收到货之前还是难以确认,毕竟也曾有人花了 2 万美金,却买到了翻新货。"
从 iPhone 水客到 H100 水客
业内皆知,A100、A800、H100 这三款芯片是禁令颁布以来市场主流。
一般认为:火爆程度上 H100>A100>A800,A800 主要面向中国市场,是 A100 的 " 阉割版 ",H100 比 A100 还要更高阶一点。此外还有一款号称是 "H100 阉割版 " 的 H800。
A100 上文已介绍过,这里不再赘述。A800 是英伟达在遵守 2022 年出口管制标准的前提下,为中国地区开发的 A100" 平替 "。从官方公布的参数来看,A800 主要是将 NVLink 的互联带宽由 A100 的 600GB/s 降至了 400GB/s,其他参数与 A100 基本一致。互联带宽也就是我们常说的传输速率,直接影响着芯片输入和输出的能力,对训练大模型十分重要。
Jefferies 全球证券首席策略官 Christopher Wood 在研报中指出,英伟达为避开美国 2022 年 9 月输中禁令所打造的 "A800" 系列芯片,最近几月对中国的销量非常庞大。H100 发布于今年 3 月,是一款基于 4nm 工艺,拥有 800 亿个晶体管、18432 个核心的 GPU 芯片。针对中国市场,英伟达也推出了特供版 H800。据外媒报道,H800 的芯片间数据传输速度大概是 H100 的一半,阿里巴巴、百度的云部门已采用 H800 芯片。
一位不愿透露姓名的渠道商表示:" 现在整个市场主流就是 H100,很多公司报价高达 50 万元,但实际成交价格在 32 万元左右,不过确实很难拿到货,9 月份的出货量也只有 3000 片左右。"至于支付定金,在这位渠道商看来," 市面上传订货要付 50% 定金,比正规渠道高出了差不多 30%,真实货源面前,支付多少定金已经不重要了。"
而与 H100 的火热形成对比,年初崭露头角,年中走向高点的 A100 已基本 " 退烧 "。电子元器件渠道商觉 S 向芯潮 IC 透露,"A100 最热的时候,哪怕你手里只有三五片,人家都会拿过去拼凑,但采购潮在 6 月份就基本结束了,现在需求基本饱和,至于 A800 芯片,现在谁拿到基本都会砸在手里。"
10 月 17 日,美国商务部颁布新一轮出口管制条款,针对中国市场的平替版本英伟达 A800 和 H800 面临禁售,L40S 甚至 RTX 4090 都被推上了风口浪尖,黑市 " 尖货 " 价格又一次戏剧性上涨。有消息称,当日晚间预定的 H800 GPU 整机单价已高达 245 万元,较一个月前的期货预订价 195 万元已高出 25%。
不过这次,很多国内厂商都提前接到了消息,预先完成了囤货。国内一家服务器厂商的内部人士表示,他们十月初就接到了这个(禁售)消息,目前已经囤了足够量,不过未来还是有很大压力。
出口管制新规发布前某供应商通知增补订单受访人供图,仅供参考
综合市场的信息,应用软件开发商、初创公司、研究机构和游戏玩家是这些芯片的主要采购者,也可能涉及一些敏感机构和实体 。
有需求就会有供给,一条隐秘的地下交易链条也逐渐成型——供应商们采购芯片的方式主要有二:一是在英伟达向美国大型企业大量发货后,抢购市场上的剩余库存;二是通过在印度、新加坡等地本地注册的公司进行进口。
知情人士表示:" 对于大型企业来说,拿货一般有固定的渠道,而且消息都是高层间直接勾兑,走货量大,中间商作用较弱。"
那市面上持有少量显卡的卖家又是如何搞到货呢?
有渠道商透露,其实显卡大概是两个巴掌大小,由于每个国家把控严格度不一,如果揣在包里,报关时把它报成普通电子设备,流通就成为可能,好比当年水客运输 iPhone。也有人从服务器上下功夫," 一般服务器都是类似于茶海大小,海外发到我们这边都会拆散,但里面的东西基本上不会损坏。" 不过大家心里也清楚,走中小型中间商渠道,风险会很高,虽然买个几片、定金也交了,一旦被查基本只能认栽。
渠道商仓库 A100、H100 装箱实拍总的来说,国内真正能勾兑这类交易的人屈指可数,就连坊间传得神乎其神的华强北,也有很多办不到的事。中间商就算想分一杯羹,也多会因为繁琐复杂的过程验证而退出——客户会质疑货物真假,是不是拆机件,能不能确保 100% 原厂出货;供货端更是会仔细盘问买家、用途、是不是真的有能力付钱。
也有渠道商曾试图在这种产品上赚一笔,但最终尝尽苦头,有感而发:" 做一单几万美金,或者二十万美金的生意尚且很复杂很小心,更何况这是一笔上千万美金的订单,是很难做到的。"
风险因素众多,除了产品来源非官方、去向不确认,市面上还会有不少翻新货,运气够差的话,你手里拿到的根本就不是 A100。知情人士称," 拿到芯片后必须得组装起来才知道真假好坏,有点儿像开盲盒 "," 如果向某些比较正规的公司签合同购买,都至少有 1-3 年的质保,单从外面的渠道购买是基本不靠谱的,保修售后也不要想了。"
据介绍,运输过程中磕碰、泡水比较常见,还有卖家把已经不流通的 A100 40GB 芯片,改成 80GB 来卖,上当的也大有人在。
所有人都被产能 " 卡脖子 "
H100 还没成为历史,抢卡又开始了新的轮回,甚至消费级的 RTX 4090 一下成为风暴中心。10 月 17 日之后的短短三日,RTX 4090 的价格像坐了火箭,冲上 4 万元不说,在华强北线下和淘宝第三方店铺均已断货。
"RTX 4090 是被性能密度拖下水的,实际上 RTX 4090 目前也没有人真的拿来做 AI。" 有业内人士向芯潮 IC 表示,RTX 4090 是目前游戏玩家能够买到的最顶尖的游戏显卡,AI 大模型训练等商业需求,RTX 4090 虽在理论上可以串联满足(很少有人会这么做),更多还是满足个人需求当个游戏卡。
令所有人都没想到的是,本来有 30 天窗口期的禁令竟提前生效—— 24 日晚间,英伟达发布公告称新出口限制改为立即生效,但炒得正热的 RTX 4090 却不在禁售名单中。
根据英伟达周二提交给 SEC 的文件,美国商务部 10 月 23 日通知该公司,上周(10 月 17 日)公布的出口限制改为立即生效,影响适用于 " 总处理性能 " 为 4800 或更高,并为数据中心设计或销售的产品,即 A100、A800、H100、H800 和 L40S 的出货。
英伟达发布公告截图 来源:英伟达官网从禁售到不受影响,价格也就暴涨暴跌,疯狂囤货的黄牛被双重暴击,但事情一直在动态翻转。
日前,又有消息称,多家英伟达合作显卡品牌确认 RTX 4090 系列将于 11 月 17 日之后在中国大陆全面禁售。尽管真实性无从考证,RTX 4090 似乎有着自己的 " 真香定律 "。
从 A100、H100、A800,再到 H800、 L40S...... 历史宛若一个轮回,套住了深扎其中的玩家,不论是身为制造商的台积电、联电,还是像英伟达、AMD 等人工智能计算公司,更不必说华为、寒武纪、摩尔线程、壁仞等诸多被禁令 " 点名高挂 " 的中国大陆企业,都随这一场场的风波浮浮沉沉。
问题症结在哪儿?除了天天讲的禁令,制造端的产能更为关键。
从根源上看,英伟达有多少货取决于台积电的 CoWoS 产能。CoWoS 是台积电的一种 "2.5D" 封装技术,其中多个有源硅芯片集成在无源硅中介层上,是最流行的 GPU 和 AI 加速器封装技术,英伟达 A100、H100 芯片均用台积电 CoWoS 先进封装。
2023 年,ChatGPT 风靡全球,AI 芯片需求应声大涨,这大大超过了英伟达的预估。一位有丰富半导体制造经验的知情人士表示," 原本英伟达 2022 年在台积电预订的产能是 3 万片,今年 3 月 ChatGPT 爆火后,又紧急追加了 5000 片,再后来又追加了 1 万片,最终在台积电的订单共有 4.5 万片。"
4.5 万是个什么概念呢?
2022 年,台积电 CoWoS 年产 7 万片,今年受 ChatGPT 爆火的影响,台积电计划将年产能提升到 14 万片,而这其中仅英伟达一家就已经占据了超三成。对英伟达来说,台积电出多少就买多少,但同时还有 AMD 也要出货,谷歌自研的 TPU 也在翘首盼望,这 14 万片的产能早就被瓜分了个精光。
据业内人士介绍,CoWoS 所需中介层因关键制程复杂、高精度设备交期拉长而供不应求,目前产能严重受限,正处在艰难爬坡过程中。这也意味着哪怕是英伟达这样的大客户,想追加更多都是不可能的。
所以,现在 A100、A800、H100、H800 等芯片如此紧缺,问题症结在于台积电 CoWoS 产能的不足。上述知情人士表示,这个问题有望在明年第二季度解决,那时产能大量释放,明年台积电 CoWoS 有望达到 30 万片。
想象一个场景,如果明年产能不再紧缺,在美国、日本、新加坡,这几款芯片要多少有多少,需求饱和,流入中国市场只是时间早晚。现在全球缺货加上中国被限,芯片的价差特别高,但产能跟上后,价差自然会变小,千金囤货的故事终会告一段落。
那么,产能何时才能跟上?眼下的问题又该怎么解决呢?
该知情人士认为:" 明年应该是见真章的一年,预计明年下半年 ChatGPT 的落地场景会明确下来。"
届时,H100 在训练端的需求可能会到顶,但推理端场景有很多,需求增长无穷无尽。现如今,Meta、Microsoft 等国外大厂做训练和推理基本都用 H100,部分小厂可能为了性价比选择训练用 H100,推理用 A100。但其实,推理端并不是非高端芯片不可,今年 8 月,英伟达 " 曲线救国 ",给出了绕过 CoWoS 封装的解决方案—— L40S。
这是一款专为搭建数据中心设计的 GPU 芯片,在具有数十亿参数和多种模态的生成式 AI 工作负载下,L40S 的 18176 个 CUDA 核心可提供近 5 倍于 A100 的单精度浮点(FP32)性能,相较于 A100 推理性能提升 1.2 倍,训练性能提升 1.7 倍,从而加速复杂计算和数据密集型分析。对于全球而言,在 CoWoS 封装产能有限,H100 供给不足的当下,L40S 可谓一场及时雨,但现在也遭遇了 " 一纸禁令 "。
禁令的波及不仅体现在先进芯片产品的直接销售上,也体现在先进工艺的制造代工上,寒武纪、摩尔线程、壁仞已经无法在台积电流片,而只能转向大陆晶圆厂。据了解,目前中芯南方厂今年、甚至明年上半年的产能已经排满,相关需求大概明年下半年才能做。
"GPU 现在良率很低,必须要有足够的产能才会去跑 GPU,但等到明年下半年中芯南方产能释放,其实一定程度上已经失去了先机。"
本文来自微信公众号:芯潮 IC(ID:xinchaoIC),作者:辰壹,编辑:苏扬
猜你喜欢
ET9 预售 80 万元 蔚来高端野心不止
豪掷 20 亿元奖励门店?比亚迪完成 300 万辆年销目标,门店或跟着分蛋糕
碧桂园服务发表“独立宣言”
福建农村,靠 180 万贵妇,喂出一个 IPO
精神东北人,治好节后综合症
有大消息?恒大系港股三公司集体停牌
旅客坐飞机,窗外惊现巨型“怀孕”擎天柱!网友热议!当地回应:“大肚子”是星空馆……
扎克伯格在元宇宙里一小时的「真人对话」,惊艳了全世界
良品铺子起诉赵一鸣刻意隐瞒并购事宜,新公司后续上市恐受影响
雪乡住宿 1 炕 2 床要 3000 块!当地回应
70 岁金融大佬,确认遇难
豪华市场喜忧参半,比亚迪正面肉搏小米
务实的风还是吹到了 985 高校
CIPS跨境支付链发布会及区块链技术与应用讲坛今日举行
董宇辉新账号首播带货已超 1 亿元
专家建议发放 1 万亿元消费券!成本较低,也能带动税收减轻财政负担
许家印最好的队友,也进去陪他了
10 万烘焙店倒下,2 元面包、“穷鬼套餐”席卷年轻人
“血王”易主?海尔集团豪掷125亿拿下【附血液行业市场规模预测】
基金经理报警了,另有操盘者被“封号”半年!这个周末不平静