TA的每日心情 | 擦汗 2026-3-17 22:01 |
|---|
签到天数: 1133 天 [LV.10]大乘
|
沙发

楼主 |
发表于 2026-2-26 21:43:21
|
只看该作者
后来想了想,我让龙虾爬了一个分析全球AI数据中心建设和运营成本的报告,内容如下:1 S$ |( V& H. d" x
" }* u3 J2 d4 C: J
一、总体分析框架与核心结论* @2 g" q' U; C0 a6 M; {
1.1 分析框架概览2 Q- G+ s' ~+ E0 V
拆分维度
8 j3 f4 G- ]9 g4 ~+ X+ ?8 y/ G1 m) n {4 {, L9 e9 i a# f; f9 @
阶段:
* h0 {/ g4 Y( \3 J6 ~# d建设期(CAPEX):土地/建筑、供电与配电、制冷、IT 硬件(GPU/TPU/加速卡)、网络与其他基础设施
_6 q% q% R* X$ i1 M8 i运营期(OPEX):电力、水、运维人员、场地/托管、维护与更新、网络带宽等- ^- g6 Z7 z' L6 Q
区域:
% l% ^* w0 Y- x* d9 u4 \7 b中国、美国、欧洲、中东(以海湾地区/UAE 为代表)
- G) A4 L: p+ ?7 F4 S# j技术方案:
* R$ m- A: ?- i/ z) I' d: @NVIDIA(H100 / H200 / B200 / GB200 NVL72 等)5 R; a P- ]% \9 m2 d$ e/ w7 h
Google TPU(v5e/v5p/Trillium 等); [& V' Q k b; ^
中国芯片:华为昇腾 910B / 910C 系列、阿里平头哥真武 810E(PPU)3 e1 v0 a: I9 P- v& B3 Z0 F1 j& i
算例基准6 x! f* m2 x! c. b R# p; T
2 M: I$ x/ ?' c3 |' o! Z3 a以400 MW 级 AI 数据中心为统一标尺(与 ChinaTalk BOTEC 分析保持一致)[1]:: Q, f# q7 O7 c2 [( A' x# L
其中 IT 有效功率约 360 MW:GPU/AI 加速约 312 MW,CPU/存储约 48 MW" h y: q' T' s4 Z8 t
PUE 假设约 1.11(高效液冷场景)[1][29]
3 ~4 P( G6 M5 `/ ]时间窗口:3–5 年运营期(与行业 TCO 分析和硬件折旧相匹配)[28]
- t: J9 P/ o5 Q8 n关键指标
$ ^! f& o! L8 y; N8 b4 |& i' S4 t3 T4 ~3 b# l& ^
$/MW 建设成本(含/不含 IT 硬件)
! @1 P7 ]5 G% }% R! a$/kWh 电力成本、L/kWh 水耗# F9 d4 R* Q/ b/ A) o5 f: p3 [/ ^
$/token 或 $/百万 token 的综合成本& [+ S+ ~. R( X- E( w& R" o
Token-per-watt / Joule-per-token 作为能效基准[17][18][26]
3 |1 J; B, j1 R$ l; q$ U项目 IRR/回收期、吨位级 TCO 对比(自建 vs. 云租)
8 O7 ]4 }4 V6 b( ^3 p' p% o$ Z4 B7 `1.2 高层结论(供决策快速参考)
; M9 V1 m* P+ k0 I建设成本:AI 数据中心相对传统云数据中心成本翻倍' A( F) L% t) I# }# C1 @
7 k7 p. K: Y0 S
传统云数据中心壳体+机电平均约 $10.7M/MW (2025),预计 2026 升至约 $11.3M/MW[2][41]。7 O5 S, [7 u5 K
AI 优化数据中心(高功率密度 + 液冷)壳体+机电可高达 $20M/MW 甚至更高[41]。/ [, Y2 h2 Y0 t7 Y- S( t" T
按 Accenture/Soben 研究,传统云 DC 为 $8–10M/MW,而 GW 级 AI 数据中心可达 $17M/MW(仅壳体+机电,不含 GPU)[3]。
- [- O f0 z; y8 s区域 CAPEX:中东≈中国 < 美国≈欧洲 < 高端 AI 园区& @" Q0 h* A: V# ~. P
! Q3 s K x" t( M, x& c7 C* k5 ^中国:$5.5–6.5M/MW,400 MW 约 $2.4B[1][13]
% d1 n6 E {3 [% R5 R5 {( ?& U3 E6 I美国:$8–12M/MW,400 MW 约 $4.0B[1]
1 u* j! {3 r+ o* |8 ~5 s; S& f欧洲:接近全球平均 $10.7–11.3M/MW[2][41]
$ [) g ~6 m4 ?" P4 n- a中东(UAE Stargate 5 GW):总投资超 $30B,约 ≥$6M/MW[20]7 i% l: H% U4 w& y; Q
结论:中国与中东的壳体+机电 CAPEX 明显低于美国/欧洲,同等规模下节省约 30–40% 构筑成本。/ y- d1 @# J, i
OPEX:电价与人工决定区域优势* b. |$ F5 v; S0 `, b3 M
5 y7 }+ c, R2 j* J5 \ T+ N电价(2025–2026 工商业大致区间):
" _9 {: f6 o. |: j# w: t/ I" F中国:约 0.8–1.1 元/kWh ≈ $0.08–0.11/kWh,部分算力基地可通过长协拿到 ≈3 美分/kWh[12][73]2 m+ k+ x$ F9 Q* s3 l
美国:工业用电约 $0.085–0.09/kWh[44]- O( S0 l6 ?5 z5 P
欧洲:非居民平均 €0.19/kWh ≈ $0.20+/kWh[45]
4 J0 v# f3 C- U/ o! b) y- I中东/UAE:工业用户 $0.07–0.13/kWh[47]7 ~, R, V0 V% d% {- X6 E, F2 e9 i n
人工:
7 v- k0 l4 w5 ~! O, @中国数据中心运维:约 $22k/人/年
$ K% x, b7 H0 ?4 ?* d3 m美国数据中心运维:约 $120k/人/年[1]0 c6 E; d# x% y% [# ^ N2 D
结论:电价上中国西部/北部与中东有显著优势,人工成本上中国远低于美欧。
l( U9 r3 s/ {能耗与每 token 能源成本:能效差异远大于电价差异
9 O7 q. o; ^7 \. N- h7 X$ l# f) f7 J8 C4 g3 P; h
IEA:2022 全球 DC+AI+加密耗电 460TWh,2026 可能至 620–1050TWh[86][90];AI 专用服务器约 90TWh 量级[30][90]。2 w. v+ c+ ^ R- ^: N
大规模 LLM 推理能耗估算:H100 集群训练 GPT-3 175B 约 2.46–3.63 J/token(训练)[10][16];经推理优化后,Inference 端典型可做到 0.4–1.0 J/token 级别[17][26]。 n7 i+ K% f+ V. Y, N
将 token 能耗约化为统一口径:
9 X! G; U+ R1 W) w粗略取 1 J/token = 2.78×10⁻⁴ Wh/token。若电价为:
: c( h6 R: k0 T! p中国 0.3 元/kWh ≈ $0.042/kWh:电费 ≈ 1.17×10⁻⁸ $/token ≈ $0.0117/百万 token; Z& \' x7 H& t# U, N
美国 $0.30/kWh(题设):电费 ≈ 8.34×10⁻⁸ $/token ≈ $0.0834/百万 token6 U+ v8 |/ I, M6 k5 A: l
对比:OpenAI GPT‑4.1 / GPT‑5.2 系列对外 API 输出侧价格 $8–168/百万 token[62],电费占比 远低于 1%,真正决定成本差异的是硬件 TCO 和利用率,而非电价本身。' {8 E0 T" N' x/ u
不同芯片方案的核心差异
- d m4 k* ^' E
5 C% J; g& c5 w* ~: ~NVIDIA Blackwell/B200 & GB200 NVL72:8 T8 H& {* @, K( o2 ?3 ^
单 B200 GPU 峰值 ~4.5 PFLOPS FP4/FP8,功耗 600–1000W[68][69]。
- ^ `& R# o. |6 k1 T% ^& e4 NGB200 NVL72 整机架售价约 $3.0–3.35M,72 GPU[34][69],GPU 约占整个 AI 数据中心总 CAPEX 的 39% 左右[36]。
: f/ W. V+ s7 RGoogle TPU v5e/v5p/Trillium:& _* t( c9 J5 Y' \% q# S r4 z' P0 c
TPU v5e 8 芯推理:约 2,175 tokens/s(Llama2‑70B,INT8)[67];功耗显著低于 H100,同负载下能耗可降约 5 倍[67][52]。
/ `3 q x* d( x T( M+ N1 Y' CGoogle 内部披露 TPU v5 能效约为 H200 的 1.46×,Trillium/TPU v7 更高(约 2× 甚至以上)[52][65]。
) ]0 P4 a+ Y! ?8 c5 k4 u* S- d' p: f- n" b华为昇腾 910B:
9 d" x8 {/ F0 r7 R9 V' XFP16 算力 320–376 TFLOPS,INT8 640 TOPS,TDP ≈ 310W[80][81][82];能效接近甚至超过 A100,在长序列推理上 token-per-watt 可超 H200[71]。% {5 i- Q+ |* M8 y5 Z
单芯片成本约 5 万元人民币 ≈ $7k[60],显著低于受限版本 H20/H100。( \1 H' E4 H+ q$ b
阿里平头哥真武 810E(Zhenwu PPU):
+ u1 U) |7 |; Y1 K96GB HBM2e、700 GB/s 互联带宽[59][111],功耗约 400W 级别[102],整体性能对标 NVIDIA H20/A800,并已形成万卡集群部署[59][111]。. t6 q4 g, X1 [7 Q0 \) b; q( u' X. M g: U
结论:7 U* o; p4 P; s7 o' v
能效(tokens/J 或 tokens/W)排序大致为:Google TPU v7/Trillium > NVIDIA B200/GB200 > TPU v5e/H200 ≈ 华为 910B ≈ 阿里真武 > H100/A100。
) Q" O1 f' C; x" Q! ? v7 i单芯片/整机价格排序:华为/平头哥 < TPU 自用成本(Google 内部) < NVIDIA 公版(H100/B200/GB200)。3 p7 S6 ]5 o r* g6 g9 h v: c
对中国市场,在算力性能足够的前提下,昇腾 + 真武 方案的 CapEx/每 token 成本有 30–60% 的价格优势。
3 |: M/ `4 d4 O& e1 _* E$ o自建 vs 云租的 TCO 与 token 成本' |7 l1 j- b% e! j9 A
( r$ A0 J7 C/ l. F& U# pLenovoPress 对 8×H100/H200/B200/B300 本地 vs AWS/Azure/GCP 的 5 年 TCO 对比[28]:& M7 s) w0 Y; ]" F8 O( j9 h! [, B
8×B300(Config D)自建 5 年 TCO ≈ $1.01M;& x! }: G: p- s- s* C2 D# L- A
等价 AWS p6‑b300.48xlarge(24/7)5 年 ≈ $6.24M,节省 83.8%。/ X" J5 H' ~: q- W2 K: D
8×H100(Config A)自建对 Azure On‑Demand,回本点约 2,720 小时(~3.7 个月),对 1/3/5 年保留分别约 4,423/6,800/7,591 小时(~6/9.3/10.4 月)[28]。; l b9 S7 b ~
Token 成本对比示例(LenovoPress 场景)[28]:
& j- d8 W' b; n; B* cLlama‑70B 推理,8×H100 本地:约 $0.11/百万 token
0 F5 J9 {$ q8 d$ A/ A, h0 zvs Azure H100 On‑Demand:$0.89/百万 token → 自建 ~8× 便宜。2 G+ o' a9 H& Y) c0 a# ^
同样 70B 模型,自建 vs GPT‑5 mini API(约 $2/百万 token):自建便宜约 18×。
$ I9 N# a" Q$ cLlama‑405B,8×B300 自建:$4.74/百万 token,AWS B300 On‑Demand:$29.09/百万 token → 节省 ~84%。
1 b2 x0 `1 V& Z: q结论:3 e+ s. u! \% z% j
高利用率、长周期推理负载下,自建 AI 数据中心的每百万 token 成本可比公有云或高端闭源 API 低 1–2 个数量级。6 g8 i& _1 t2 ^% W. t3 }$ N5 V
Token 电费占比极低,自建 vs 云租的差异几乎全部来自 硬件折旧 + 云溢价 + 运维与利用率。
. h( y, X2 K" ~6 S$ V4 u二、建设期成本分布:区域对比$ i% Z' j7 ]( @- @6 S
以下重点讨论 壳体+机电(不含 GPU) 与 全栈(含 GPU) 两层。 F' A% A; N5 W7 V1 @
( O/ x5 k1 o% m! T+ x- v, r
2.1 全球/通用结构(以 1 MW 为单位)
! i- u- |) _- C7 x( M0 `, X/ s/ U' ~综合 JLL、ConstructElements 等[2][41][40]:
! ~# S6 ?0 C& g+ J) ?. u
' O P# J/ J) H壳体+机电(Shell & Core)' d& y( l2 D/ Y2 i# @
5 g- Y# K) Y9 n全球传统 DC 平均(2025):$10.7M/MW,2026 约 $11.3M/MW[2][41]
! u2 L3 g" g: f8 }$ v9 k其中按成本构成[40]:
) v. v5 x& a) J) X9 k" m" D( |& e0 t电力系统(变电、配电、UPS、母线等):40–50%
( S: _0 C3 k. Q. c机械与冷却(冷机、冷却塔、管路、CRAC/液冷):15–20%( J) m1 U! `$ _- `7 F& ?, M: p0 v
建筑与土地、结构:约 15–20%
0 q$ \4 a( N9 y5 H其他(消防、安防、楼宇管理等):约 10–15%
9 G7 q: P/ {: I% O: H7 x0 t: Q, BIT 内装与 AI 基础设施(不含芯片)
/ z& O X. n+ f( B _5 R2 X$ T' f3 J, C- V
高密 AI 集群内部装修(高密布线、机架、液冷板/浸没舱等)会在每 MW 额外增加 $25M/MW 量级[40],对 GW 级园区影响巨大。
& x2 h7 k8 w- n5 e! tGPU/加速卡硬件 CAPEX" T* V+ q" t# C3 z
) F$ v. D) r# S# }! Q9 k/ j8 b多数分析认为 GPU 占 AI 数据中心总 CAPEX 的 30–40%,其中 NVIDIA 单家毛利约等于整个行业 CAPEX 的近三成[36]。4 X2 Z; F V. x. B! x8 x x, m
2.2 中国 vs 美国 vs 欧洲 vs 中东:1 MW 建设 CAPEX" M& c7 w) c$ `) D
结合 ChinaTalk、JLL、UAE Stargate 等[1][2][20][13](仅壳体+机电):, K+ N: g" A5 ?3 B! A
6 f) Y( S* t3 c$ g" g' I
区域 典型建设成本(壳体+机电,$M/MW) 备注6 j! d$ a, g/ f" `8 d! n
中国 $5.5–6.5M/MW 以西部算力基地为主,400MW ~ $2.4B[1][13]
8 M' E# P, V/ H' q9 N美国 $8–12M/MW 典型超大算力园区 400MW ~ $4.0B[1]! N. x3 F1 l. i. F s0 a+ s
欧洲 $10.7–11.3M/MW 接近全球平均,部分核心城市更高[2][41]
; t, g9 r$ A8 Z中东 ≥$6M/MW UAE 5GW Stargate >$30B → ≥$6M/MW[20]. m9 a8 Z/ }0 \# k
结论:
4 H* t7 G; Y! F3 z, x5 C2 H1 V+ g8 m2 I+ O3 s, V4 B
单位 MW 壳体+机电 CAPEX:中国 ≈ 中东 < 美国 < 欧洲。/ Y+ W( v1 b/ T4 s4 _
若考虑土地、电网接入和许可周期,中东(特别是 UAE/沙特)在电力可得性和政府补贴方面往往优于欧洲,趋近美国甚至中国。
- B3 R9 h( x0 F3 z7 T2.3 引入 GPU 后的全栈 CAPEX(以 400MW 集群为例)2 I6 X0 M6 f3 L* O$ j. V
以 ChinaTalk 的 400MW NVIDIA GB200 NVL72 集群为例[1]:3 G( v% ~, X8 ~* K; a
2 y' M) j$ r% N$ P" U0 S: A0 l
假设:PUE=1.11,电力侧 400MW,中约 360MW 投入 IT;' { ], u6 x, A, g2 j; d- y4 V% Y
GPU 配置:+ T& w" p" A: P$ W- R& {
有效 312MW 用于 GB200 NVL72,约可容纳 2,154 racks(每 rack 144 GPUs,对应功耗 ~145kW/rack);
+ v. m! f/ C) h2 m每 rack 成本 ≈ $3.0–3.35M[34][69];
4 ]* ?6 K' k! \, kGPU 总 CAPEX ≈ $6.5–7.2B 量级(ChinaTalk 抽样约 $5.6B 略保守[1])。# A1 M, F/ k/ d% ^( Y9 f* C' ?
与不同区域壳体+机电组合:! l7 ]' `4 D6 P! `
t2 z# z+ A) P
以中值估算:
8 N% E2 ]% R7 M, A- y! [8 a, n `
中国 400MW:壳体+机电 $2.4B + GPU $5.6B ≈ $8.0B0 ~3 \ g" d; Y+ w! l9 l! X
美国 400MW:壳体+机电 $4.0B + GPU $5.6B ≈ $9.6B
5 }; Y5 q0 N* ^; S* ?! G5 \欧洲 400MW:壳体+机电 $4.5B + GPU $5.6B ≈ $10.1B& O- M. T1 m; O/ z7 S! X3 p
中东 400MW:壳体+机电 $2.4–2.8B + GPU $5.6B ≈ $8.0–8.4B
) Z8 _; s& Z( L& v2 ?4 C2 s可见:
6 W2 W+ ?6 t7 @, {" @
2 h. q& s2 D4 L7 {! m; Y2 JGPU 成本在各区域大致相同,决定区域 CAPEX 差异的主要是壳体+机电与土地/电力接入。
" F8 P$ ~" e4 s% i1 F. z相比美国/欧洲,中国和中东可在 400MW 级别节省约 $1.6–2.1B CAPEX,这对 IRR 有直接影响。8 {- o9 n% t1 c
三、运营期成本结构与区域对比
B! ?% g; x7 f J! N& k3.1 通用 OPEX 结构(高密 AI DC)* y4 B4 b$ k+ }, U7 Q5 [
结合 ConstructElements、IEA、Microsoft/Google 披露[40][86][103][104]:' \# F5 f9 J1 `9 Q9 B9 T3 g3 E
/ G# P W& N* W+ w: ]电力:约占总 OPEX 的 20–30%(传统 DC),对于 AI DC 因 GPU 负载密度提升,可达 30–40%。8 P7 f% D1 r7 o
冷却与水资源:
! V/ _/ @0 q$ G# d能耗:传统风冷约占总功耗 30–40%[39];液体冷却可将 IT 与制冷合并大幅降 PUE 至 1.1 左右[29][115]。0 f5 ?8 K8 d: }$ B
水耗:典型 DC 约 1.9 L/kWh 水用量[105],每日用水可达 300,000–5,000,000 加仑 规模[100][101]。
! n- `0 _4 K2 l$ V& K人工:视地区而定,在中国/印度/东南亚占比 5–10%,在美欧可达 15–20%。5 b" ]$ R: N; V" o2 x2 e3 L- s
托管/物业与维护:' |! p9 p% H, w( S& M" V
托管:高密机架约 $1,500/机架/月,标准机架约 $600/月[40][28];
, `. N p& n& s5 h. i# C- K硬件维护:LenovoPress 模型中按设备价 12%/年[28]。
$ W/ z% g2 Z/ k" D2 U3.2 区域差异(以 400MW / 3 年期为例)" S. b8 Z6 V- Y+ O# d
使用 ChinaTalk 的电费与人工估算[1]:
, v& H4 ~+ y: O/ X/ ?$ P: u* {2 J: B4 T6 ^; D8 G' o4 I
电费(3 年) – 假设 GPU 利用率 60%,IT 360MW,PUE=1.11:& N# X* M4 H% ^' v' m0 ~9 E
中国:约 $0.06/kWh → 3 年电费 ≈ $350M
2 [% ?8 _' [, \美国:约 $0.09/kWh → 3 年电费 ≈ $600M
; y& K& S& [; L0 J& W中东:约 $0.07–0.10/kWh → $400–550M
/ M/ |6 Q0 B- W* p- z欧洲:约 $0.20/kWh 以上 → 电费 > $1B(显著劣势)
8 E2 C" c! U; f q水费(3 年) – 以 MS Fairwater 站点 280 万加仑/年为参照[1][103]:
9 m0 _& S: J6 l! ]3 j美国水价约 $5.18/千加仑,中国约 $2.57/千加仑[1]) P) O9 k4 K* O
三年水费级别:7 u1 H) P' F) M, \6 D8 A7 {0 x4 x
美国:$40k+/ i' @) T# D) n: Q. z$ |2 M
中国:$20k+
* S0 H$ J* Q+ f9 a! I结论:水费是数量级上可忽略的小项,真正的约束是水资源总量与选址,而非成本。
: J; j# {, S) D* W1 @, A) j人员成本(3 年) – 假设 500 名全职运维:
4 H& }. T, |( A+ S美国:500 × $120k × 3 = $180M+
4 \! W! ?8 W1 ?/ [. R2 j; `) s1 r中国:500 × $22k × 3 = $33M+
( f5 x; o; G5 [差异约 $150M,规模与 3 年电费差不多,是中美间第二大成本差异来源。2 h2 G- u( j! d: e" R& v
整体 OPEX 粗算(3 年) – 400MW 场景下:
1 X! U8 v# t( m5 G( K0 {) A' E2 I9 [+ x" `0 V
项目 中国 美国
( j q0 E/ B6 t; q( ?+ r4 s电费 $350M $600M3 |* T( K+ M- d, F- o2 e
水费 <$0.05M <$0.05M! Z* m% r7 {5 Y- |1 _
人员 $33M $184M1 M$ s6 d, F( S1 ^1 t* C$ u4 |
其他维护/托管 同比例估算,地区差异主要体现在人工与地价 ! B. M9 Q2 X5 D* I* h0 f# n
结论:4 v5 w7 K7 u! D3 j% v) |, ^$ d
; C" y& W. j; q
就 3 年期而言,中国与中东在 电价+人工 两项合计可比美国/欧洲节省 数百百万美元级,与整体 CAPEX(数十亿美元)相比不算决定性,但对净现值和现金流有实质贡献。+ v. x9 Y" f6 g
对大模型服务商而言,更核心的是 GPU TCO 与 token 单价之间的剪刀差,而电价更多影响“边际利润率”而非“能不能赚钱”。
& U& w s8 p; C) \四、基于 token 的成本与利润推演; B. m+ e# w# K- y
4.1 能源维度的 token 成本(题设 0.3 美元 vs 0.3 元)
' u0 R, ^1 j5 W) U- ]2 a* f统一假设:
; K" D# |" r4 s8 e3 a
9 r& K3 J# D$ d/ a$ P% @典型大模型推理能耗:约 1 J/token(考虑 FP8/BF16 优化、Batch=256–512 时的能耗甜点[26][17][18])
% G5 X/ m; r, K" i: R1J = 2.78×10⁻⁴ Wh → 每个 token 约 2.78×10⁻⁴ Wh! r7 ^% m/ W9 @ I) h5 {
1 百万 token:278 Wh = 0.278 kWh
7 U+ B/ X1 i2 S场景 A:美国电价 $0.30/kWh3 n$ O+ F: c+ l. Y
电费/百万 token = 0.278 kWh × $0.30/kWh M: J7 `1 ?( f$ w" m; h
≈ $0.0834 / 百万 token
9 f5 ~+ @/ j7 Q: O' }1 k1 _场景 B:中国电价 0.3 元/kWh ≈ $0.042/kWh
5 }* V1 E) p- q }( j7 [电费/百万 token = 0.278 kWh × $0.042; d& x! `" k' Z' N! _8 |
≈ $0.0117 / 百万 token
- p( K0 E8 L" h2 C/ a对比当前 API 价格(OpenAI 2026Q1)[62]; g% `% s+ P+ x
以输出侧为主(成本最敏感): p5 f/ u2 q7 D4 E; y U4 Q6 B% m# k8 v
8 g4 h' b6 u* X" c
模型 输出价 ($/百万 token)
$ y+ k: i0 r! xGPT‑5.2 $14
0 c3 A% d X! q1 x2 f1 XGPT‑5.2 Pro $168
( Y# ?/ u% N9 m9 i7 r) hGPT‑4.1 $8
8 c+ e8 ]* L5 q1 q! c0 l4 pGPT‑4o $10
( w, W* K' q& q0 m7 l( tGPT‑4o mini $0.60
* o9 F# w8 b9 R- n" V- a则:! u( ]$ f7 n3 V
. F6 x B* Q3 f+ c3 I% ~在美国 $0.30/kWh 的极端高电价下,电费占 GPT‑4o mini 收入的 ~14%(0.083/0.60),占 GPT‑4o 仅 0.8% 左右。
6 z* w' N6 r# o7 q在中国 0.3 元/kWh 下,电费占 GPT‑4o mini 收入的 ~2%,占 GPT‑4o 的约 0.1%。
) {9 Z" H4 U j: e, [相比之下,GPU 折旧+云溢价+开发/运维成本才是主导。" J6 O1 F; s: Y0 A- a
结论:
; b) s a. P1 V, \即便在“美国 $0.30/kWh vs 中国 0.3 元/kWh” 的极端对比下,每百万 token 电力成本差异约 $0.07,与主流 API 价格($0.6–$168/百万 token)相比仍属“小数点后两位”的影响。区域电价主要调节“利润率边际”,而不会改变“项目能否盈利”的结论。' |( S6 b2 I( s. I( \
/ z# f2 y7 A. ]9 [) ?6 d% G! U; n3 ]4.2 全成本 per token:自建集群视角(基于 LenovoPress TCO)5 A1 v' D: a, L! D
以 LenovoPress 的 8×H100 Config A 为例[28]:9 H! N8 n g0 m& I" g7 [7 q( ?7 F
) s; g3 @4 v, Y e f5 年摊销下,8×H100 本地推理 70B 模型:
& {- O- v. m5 [小时综合成本(CapEx摊销+Opex):$12.08/h
8 s2 T0 i" U' I c+ K吞吐:30,576 tokens/s → 每小时 ≈ 110M tokens% y l+ T5 f8 n1 C+ N
成本/百万 token ≈ 12.08 / 110 ≈ $0.11/M token
8 n) F# u8 v$ V2 C电费在其中的占比:
) Z+ R& h) ~1 i4 q% K, E7 a7 iOpex 6.37$/h 中电力+冷却约 $0.87/h[28]# T$ R! t9 x: q! G, ?* @; b5 }
电费/百万 token ≈ 0.87 / 110 ≈ $0.0079/M token
9 J: }2 V& ?- y6 p( s6 U; O电费占 总 token 成本 ~7% 左右。
0 s6 R$ j* d6 A若将美国电价从 ~$0.12/kWh 提高到 $0.30/kWh,则电费约增 2.5 倍,对总 token 成本影响约 +10–15%。
* v* R+ t& ?3 E5 i若迁至中国西北 0.3 元/kWh 或中东低价长协,电费可再降 40–60%,总 token 成本再降低约 5–10%。
! G3 N1 J% A* J0 L# W9 W$ I: J* P ?; O! N, {- ?; P7 U" M
因此:. B# V# Q# N' \( x% {& @# h& S
# Q- G$ M% z9 X在自建集群场景下,电价对 token 成本有可见但非决定性的影响(变化量级在 ±10–20%)。
0 q/ ]8 h' Z' V在云租和 API 模式下,电价影响则被进一步摊薄,绝大多数利润被云厂商的溢价和 GPU 供应链吸走。! C) v0 ?3 z- a1 N& p. e
五、不同芯片方案的建设与运营成本对比
! Y3 N! b; c$ D0 \8 V1 K5.1 NVIDIA 方案(H100/H200/B200/GB200)5 u6 ?, I/ K" T9 Z; z! Z, j
CAPEX:: c; P1 U9 [7 V$ w) r
0 K# `6 z5 |; u; t, g7 ]6 B
H100:单卡市价 $25k–35k,8 卡服务器约 $250k+(Lenovo 配置价 $250k 左右)[9][28]。' A# J: G' S& w$ Z
H200:显存提升,单卡价更高,8 卡节点约 $280k[28]。
' q! M s% f; d# `3 Z' KB200:Blackwell 代 GPU,8 卡服务器约 $338k[28]。
5 ~/ H$ N) O( x" ], d; YGB200 NVL72:
9 k# {* s" g/ z% [每 rack 带 72 GPU + 36 Grace CPU,售价约 $3.0–3.35M[34][69]。
7 ]* A: x# W) l; i冷却系统每 rack 额外 $50–56k[35]。
8 w$ N& N0 }- | k在 400MW 场景中,GPU 总 CAPEX 约 $5.6–7B,占总体 CAPEX 近 40%。1 y& O- ?0 d0 t# G- r) J& C
OPEX & 能效:; F6 v! f$ ~. ]
! ~" b( Q7 Q9 u. ]; m* d L单 GPU 功耗:
, k' w3 a4 Z6 @& rH100:TDP 700W;集群实际单 GPU 含服务器/网络开销可到 ~1,500W[16]。) j# j5 O# ]* t) U2 B6 G% v
H200:功耗类似或稍高,但性能/W 提升[9][10]。7 \! |& u! y+ f: b" {, { o
B200:标称 1,000W TDP,但实测约 600W 左右[68][69]。
) \/ a- ]+ D$ Q5 J# jToken 性能:* M$ K- X# b! I$ n8 ?* H- P$ H
B200:官方推理基准中,可达 60,000 tokens/s/GPU 级别(gpt‑类模型)[68]。, _* e# `3 h- B, z& r7 Z! p, c6 T
NVIDIA 的优势:$ ?" I; K' f" G! p
: M$ z4 `3 A1 f2 v/ z1 m
软件栈成熟(CUDA/TensorRT‑LLM),易于榨干硬件性能,batch 与多 GPU 并行调度成熟 → 在同等 PUE 与模型条件下可达更高 tokens per Watt。/ ?% `- w( B% V. z9 T
但硬件价格与毛利极高,从 TCO 角度,“谁买单 GPU 溢价”是关键——云厂商多半将成本转嫁给 API 用户。 W$ @1 L: I6 r1 L6 ?! v9 }
5.2 Google TPU 方案
/ N; K! B$ G e6 U+ x" mCAPEX:) H4 Q. h+ f9 f5 m
" z! N( |/ @( @" K: j; p
单 TPU v4 定价约 $3.22/芯片小时,v5/v6 在云端按实例小时定价对外[52][54]。) l* Z% x( I6 E5 p
GSR 估算:TPU 的出厂 ASP 约 $4,500–5,000/片(Google 内部成本)[54]。( d( n$ |/ H( C$ t( B
8 TPU v5e 实例约 $11/h,而 8×H100 云价可高达该数值的 5–10 倍[52][54]。, H9 F, n, v! z9 _* F9 O ]
能效:
% c5 H4 \! O6 |% `$ {2 f4 @# K+ A
' Q+ M$ s+ j& P0 N+ f3 e, D' DTPU v5e vs H100:
/ W7 x( o7 @2 \! N' p8 Q同级推理场景下,8×TPU v5e ≈ 2,175 tokens/s(Llama2‑70B,INT8)[67],H100 需更高功耗才能匹配。
) J" k" G+ w e! @( h" Z" Y1 `测试表明 v5e 功耗约为 H100 的 1/5 左右[67][52]。0 b( @: h, Q% h! ], ~
新一代 Trillium/TPU v7:- n$ O; o# b+ R3 e: v
能效比 TPU v5p 提升 ~67%,对 H200 或 B200 整体上能实现 2–3×性能/W 优势[52][65]。! y, v9 l: ?6 i# P z3 K3 v7 n5 Z4 ^
Google 方案的特点:
. E0 {* a U2 H; h& @( _
: |$ m! [3 K8 p) q( ^- G9 n自用闭环——Google Cloud + TPU + Gemini,利润来自整体云栈,而非单个芯片;/ n* X/ j, @7 H" R
对外公布的 API 价格较为激进,TPU 方案在 tokens/W 与 tokens/$ 上具有显著优势,尤其在内部工作负载。
& F3 P% C8 q. ^+ h2 @, d* x5 d' V5 j9 \5.3 华为昇腾 910B / 910C 方案
: b" c5 E% _: y0 mCAPEX:
% K8 e- }. z- V0 I( b' }9 O; l8 i* a) o5 }) u& @: m! r" o/ z
单 910B 芯片成本约 50,000 元人民币 ≈ $7k[60];910C 约 110,000 元[60]。
4 F, Y3 d. I1 ~( b1 c! k1 b, u, C与 A100 对比:
6 O \$ F! w6 x, E! L! RFP16 算力 320–376 TFLOPS,功耗 310W,性能接近甚至略高于 A100(400W)[80][81][82]。1 g" I: K. D" ]
市场报道中,NVIDIA H20 在中国售价约 10 万元/片,而 910B 更便宜 30–40%[61][72]。( Q z" N& o: b- l) [( _* K! h
使用昇腾构建类似 400MW 级别集群,总 GPU CAPEX 相较 NVIDIA 可节省 30–60%,视集群规模与供货条件而定。
7 ^: C* ^* d7 I3 V: B2 g' v6 gOPEX & 能效:
$ t1 U& M5 S1 C! Y, w9 S+ C2 M& q! I2 Z m+ T) g$ x' q2 U
910B 功耗 310W,FP16 320–376 TFLOPS → 性能/W 与 A100/H20 接近或更优[80][81][82]。' f. J( |( Z1 o3 T: a, ?# E
部分推理 benchmark 显示,长上下文(>4k token)推理时,910B 在 tokens-per-watt 上可超过 H200[71]。
, Q. [/ i+ }' d在中国电价(0.3–0.4 元/kWh)环境下,昇腾方案在 TCO/tokens 维度有明显优势,但生态与软件栈仍在追赶 CUDA。9 a9 `& N5 @8 ?* k( C7 R n
5.4 平头哥真武 810E(PPU)方案
( y4 T3 \7 N! F5 _. `# XCAPEX:
. _9 Y6 X" n. h: c% `! f
' T7 E1 ?- W$ @' X0 _. R! X0 z% K技术参数:
) a' U. o; m* N5 X& n96GB HBM2e,片间互联带宽 700GB/s,自研 ICN 互联,PCIe 5.0 ×16,400W 功耗级别[59][102][111]。
- `, F h: C9 o- m) a* _0 g. C- o性能:官方宣称整体性能超过 A800 与主流国产 GPU,与 NVIDIA H20 大致相当,升级代际可逼近/超过 A100[59][110]。* G, ?7 c) ]# D3 B; [3 K
价格:8 h& W4 {! ]# y! F
未公开详细单价;多个媒体报道指出“单位算力成本可下降 ~40%”,与英伟达 H20 有 3–4 成价差[74][112]。
* k( d+ X$ p8 u, y. O结合国内报道: {0 Z& R" f7 i4 u
2025 年出货量数十万片,已在阿里云实现多个万卡集群部署,服务 400+ 客户[59][111]。2 X9 B2 o1 W/ w$ c+ J% s
数量规模与生态成熟度迅速提升,使得 真武+昇腾 成为中国公有云/算力租赁的主力基础。
+ ~* Z' k# Y% k2 ]/ y$ f, ?) hOPEX & 能效:
" g; ^ i) z9 o1 D' _4 k- P3 D S5 {, i# r, v
400W TDP、96GB HBM2e,使其在 高上下文、RAG、大模型训练+推理一体化场景 中具有良好性能/能效平衡;: a+ d% S: M4 `$ g
在中国低电价 + 低人工成本环境下,真武方案可将 AI 推理服务的综合 token 成本进一步压缩 —— 对标 NVIDIA H20,本地算力提供商可在保持 ~8–9 成性能的前提下降价 30–40% 仍保持毛利[74][112]。4 [/ j- R. m% f9 t0 Z% z
六、综合比较与策略建议
/ m( A5 b% X& m& ~! e: t3 o9 J2 O& B6.1 区域维度:在哪里建 AI 数据中心?
- e( l8 x; e" n. `6 T& Q5 u* J纯经济性(TCO/tokens)排序(假设无政策/合规约束):; X5 C& }: G; R9 B# f: Z2 L! r
" k( R s/ [- j# R% W中国西部/北部(电价低、人力低、建设成本低)
6 z) M: g: _6 z& l, R$ \* C6 u中东(UAE/沙特)(电价中等偏低、土地与电力可得性好、政策支持)
6 X) n! I D9 I0 y% I+ q; v& [美国电价低但人工高;东海岸/加州电价上涨压力大& }% F; _' b0 v2 Q- q" G' w
欧洲电价高、审批严格,但接近高价值企业客户和数据主权要求
( h# J- @1 C# u" s" ?* N' g O3 R若以“美国 $0.30/kWh vs 中国 0.3 元/kWh”极端场景比较:2 w9 P' R+ d3 _) H! x' y
A, v' k: w0 Y' {纯电费/百万 token 差异:约 $0.083 vs $0.012 → 差别 ~$0.07/M tokens;
& B( i/ o1 I- T9 e4 t对比 API 价格:差异对整体利润率的影响远小于是否使用 NVIDIA vs 国产芯片、自建 vs 云租的差异;
\5 o4 r& L' p6 J% X但在极高利用率的 自建超级集群 场景,电价仍然能在 5 年 TCO 上带来 10–20% 的边际优化,是选址决策的重要考虑。
" O% }4 K6 v9 s( [; K# h& {" U& ~6.2 技术栈维度:选哪家芯片/云栈?
* [' m, |6 \; `7 v若目标是全球最优 tokens/$ 且不受出口管制:5 q* u, b. R J6 ~* [" k. ]; A" r' [' h
9 N& D$ ?; L& E& m$ o1 o+ XGoogle TPU v7/Trillium + 自建 on-prem:性能/能效与成本的综合最优,但前提是可以直接获得 TPU 硬件与软件栈授权(现实中仅限 Google 内部和极少数大客户)。& P3 c; L- u% `+ [. j; s
若在美国/欧洲,能自由采购 NVIDIA:+ Z! Q T+ X* z: D. z# R- M. G
) P4 v1 p( ~0 g9 s+ q( f4 C
短中期内,NVIDIA B200/GB200 NVL72 仍是最佳实践:
! m9 u3 P1 N3 f8 v1 l9 c" \成熟的软件栈与生态,极高的 tokens/s/GPU;
- s' X! b( [6 k2 a$ L在云厂商/超大规模自建模式下,配合液冷与 PUE~1.1,可取得较低的 token 成本;
# w( z! `1 p8 h6 ^4 a: [但要谨慎评估 GPU CAPEX≈总投资 40% 的集中风险。
. O; r, z5 T8 w若在中国或存在出口管制约束:( K8 \3 y `# X6 P8 \) a* a
& f% Y: N z# w6 i9 e! R8 c
昇腾 910B/910C + 平头哥真武 810E 是现实可行的主力组合:, @8 M: T! u T0 w( `6 i
性能上已能覆盖大部分 GPT‑4 类推理需求;% E2 C' \9 }1 d* y& S. `, i
单片成本显著低于 H20/H100,集群 CAPEX 明显更友好;
7 Z. J3 u/ e4 \6 G软硬件全栈国产(CANN + MindSpore + 通义/Qwen 等),可避免制裁风险;
( [* R* X( N5 s, Q0 r d ]建议配合:' J& z3 q% Z( Q1 C+ y/ h, Y
高效液冷(PUE~1.1)、; s0 d& y2 Z$ L8 ?$ E5 w1 D m$ ^, m
大 batch、路由(浅层任务走小模型/低成本芯片)、
5 j6 P6 M4 T0 P! H# |强量化(FP8/INT4)与分层缓存策略,进一步摊薄 token 成本。" p# ?9 `6 @4 a/ s# K9 ^* b) U" ^
长远看,“tokens-per-watt / PCE” 取代单纯 PUE/FLOPS 成为核心 KPI:
4 ^; @$ d8 P3 |0 `0 x; M7 y
; C1 p2 h$ z% E( w0 T. E5 Q数据中心运营者应从“PUE 1.5→1.1”的设施思维,转向“每瓦输出多少有价值 token”的AI 工厂思维[29][118];
5 Y' B1 n8 A S0 X这意味着:
2 q$ _8 ~4 q6 h( P8 L) m: A' w4 k优先选择 更高 tokens/J 的芯片架构(例如 TPU v7、B200、后续国产芯片);
3 [1 a$ a: K7 O% ~精细化调优 batch size、路由策略、CoT 深度,将“energy-per-token”作为最优先指标来优化[17][26]。4 P. o7 e6 K- d" F
6.3 针对你关心的具体问题的简要回答9 g6 N7 ?! f6 v4 o9 L
AI 数据中心建设 vs 运营成本的大体比例?
) w2 L; T; ]/ P! C: e" R# e5 ^ \: t1 t, r ~" Z$ R; J; ^4 Z4 {
在 5 年期 TCO 视角下,CAPEX(尤其 GPU)约占总成本 50–70%,运营成本(电力+冷却+人工+维护)约 30–50%。$ V0 y% Z! h0 t% b2 q. D9 W1 m
其中 GPU 自身 CAPEX 占到总 CAPEX 的 30–40%[36]。% R! H: _: c$ E4 [7 u
中国、美国、欧洲、中东的成本结构区别?8 h: p4 l% ~) a1 t. u1 C4 p3 M) m
+ s1 \$ {5 K3 ~# a建设期:4 l1 Q5 y" s( X0 ~. v. {+ _
中国/中东的壳体+机电成本明显低于美欧(约 5–7 vs 8–12 vs 10–11M $/MW)[1][2][20]。8 V; o, V7 Y6 S6 y+ n6 \, S
运营期:
! Y5 b, w# B' U0 b( O8 A: K电价:中东 ≈ 中国西部 < 美国平均 < 欧洲
7 D: N, L/ Y, E2 s4 F5 ]* N* C人工:中 国 ≪ 美 欧,中东居中。
7 z; g, G! b8 z在美国 $0.3/kWh 与中国 0.3 元/kWh 下 token 成本与利润率?
, j3 H5 I7 W- b7 \! z& }1 P N
. _8 L/ l, V5 \$ C1 }对于典型 1 J/token 推理负载:+ @4 c' g9 |6 h+ M0 z
美国 $0.30/kWh:电费约 $0.083/M token. q1 V [. q0 W
中国 0.3 元/kWh:电费约 $0.012/M token6 i' r6 \4 V+ t2 t" J8 x! p6 c8 V' a
对比 OpenAI 等对外价格($0.6–168/M token),电费无论在中国还是美国都只是利润表里的“小头”,主导因素是 GPU TCO 和平台溢价。3 o3 w: g& I' { ?- S
不同技术方案(NVIDIA / Google / 昇腾 / 平头哥)的建设与运营成本谁更有利?
" s1 C) m' P) \' `& ]$ u$ n! R& J# x9 e! C+ j v
在可获得 TPU 的前提下:Google TPU v7 在 tokens/W 和 tokens/$ 上最优;
" o p( B: V/ P3 D4 f$ |; `全球通用方案:NVIDIA Blackwell 全家桶(B200/GB200)+ 液冷,但 CAPEX 巨大;
0 @/ g# u `8 l8 L3 i" S& R, p3 T中国/被管制市场:昇腾 + 真武 是当前最有经济性与可持续性的路线,综合来看能把 token 成本压到 NVIDIA 方案的 40–70%。 |
评分
-
查看全部评分
|