TA的每日心情 | 怒 2025-8-7 11:56 |
|---|
签到天数: 1132 天 [LV.10]大乘
|
后来想了想,我让龙虾爬了一个分析全球AI数据中心建设和运营成本的报告,内容如下:' A; ?! |7 N3 W: S, M1 H$ N6 |
5 c G# v1 f! n B$ y) l8 J一、总体分析框架与核心结论4 p1 z( h* F } x
1.1 分析框架概览5 ~5 K! G$ d/ }/ H
拆分维度
$ k4 p2 g- t% z, x4 o/ W- W3 X) t; [4 z
阶段:
/ E( {; G/ u: A0 P. w建设期(CAPEX):土地/建筑、供电与配电、制冷、IT 硬件(GPU/TPU/加速卡)、网络与其他基础设施- j7 J' M4 s0 S0 P; G
运营期(OPEX):电力、水、运维人员、场地/托管、维护与更新、网络带宽等
* E1 B- I2 @$ {1 E4 Q区域:: Q# M& e! G" `( l5 @( j" _* M
中国、美国、欧洲、中东(以海湾地区/UAE 为代表)
, }4 K' p6 i8 w/ u/ \技术方案:+ y4 X! E% s8 J# {
NVIDIA(H100 / H200 / B200 / GB200 NVL72 等)9 H% ` D0 \$ K7 `, m
Google TPU(v5e/v5p/Trillium 等)
+ }3 ~) {4 |) M5 W/ `, i4 ^8 O中国芯片:华为昇腾 910B / 910C 系列、阿里平头哥真武 810E(PPU) W6 S8 V+ a4 F% b: l
算例基准
/ j; h9 J1 F0 m7 N. U) Q7 B& b1 L* j$ j% L7 |
以400 MW 级 AI 数据中心为统一标尺(与 ChinaTalk BOTEC 分析保持一致)[1]:: ]8 E6 ?2 v7 {2 O* s' E
其中 IT 有效功率约 360 MW:GPU/AI 加速约 312 MW,CPU/存储约 48 MW
% b8 X: `. Z0 n. F2 tPUE 假设约 1.11(高效液冷场景)[1][29]. D3 H( J8 X1 q1 ~0 b! Q2 R
时间窗口:3–5 年运营期(与行业 TCO 分析和硬件折旧相匹配)[28]
I) r0 O' s6 u" N关键指标
9 [$ U, x$ q2 z; ^ f& i% c! o9 V1 x+ {& v' P9 U
$/MW 建设成本(含/不含 IT 硬件)
) S) d: u3 E/ r: _* ?& V$/kWh 电力成本、L/kWh 水耗
; x# a1 p) s8 @0 X3 B$/token 或 $/百万 token 的综合成本
. {. q, a4 @. U; G i9 fToken-per-watt / Joule-per-token 作为能效基准[17][18][26]/ B" Z& \$ s9 D+ i7 Y0 C$ O9 E
项目 IRR/回收期、吨位级 TCO 对比(自建 vs. 云租)
2 d0 Y8 F& o1 m' s1 h+ S4 Q/ |* V1.2 高层结论(供决策快速参考)8 ]6 J( e2 B$ `
建设成本:AI 数据中心相对传统云数据中心成本翻倍
e) P( z2 I/ i
; o: k' f. ]1 C( ~传统云数据中心壳体+机电平均约 $10.7M/MW (2025),预计 2026 升至约 $11.3M/MW[2][41]。' I% s& N0 f, I
AI 优化数据中心(高功率密度 + 液冷)壳体+机电可高达 $20M/MW 甚至更高[41]。, f B5 U, x" @7 c$ L/ R
按 Accenture/Soben 研究,传统云 DC 为 $8–10M/MW,而 GW 级 AI 数据中心可达 $17M/MW(仅壳体+机电,不含 GPU)[3]。/ `1 V& g% z9 d3 k/ l
区域 CAPEX:中东≈中国 < 美国≈欧洲 < 高端 AI 园区 _7 j- f2 h' F ?
# J6 }8 U! {( g4 B( J6 d& z. ?
中国:$5.5–6.5M/MW,400 MW 约 $2.4B[1][13]
9 P0 m+ A6 F8 L5 L5 b- R& b# V$ r美国:$8–12M/MW,400 MW 约 $4.0B[1]3 K) W* j- O! [7 F" l/ B) B; @
欧洲:接近全球平均 $10.7–11.3M/MW[2][41]
' j6 }7 r8 V2 {$ B+ y! j中东(UAE Stargate 5 GW):总投资超 $30B,约 ≥$6M/MW[20] _: M3 I4 @$ F$ G" k( m
结论:中国与中东的壳体+机电 CAPEX 明显低于美国/欧洲,同等规模下节省约 30–40% 构筑成本。
2 A- B' z1 r6 e# IOPEX:电价与人工决定区域优势
- ]" p4 N6 o2 y% S% k
) O: z% @+ M: m* O0 ?% h电价(2025–2026 工商业大致区间):
7 T9 h' o$ t; i3 ]( T3 }中国:约 0.8–1.1 元/kWh ≈ $0.08–0.11/kWh,部分算力基地可通过长协拿到 ≈3 美分/kWh[12][73]
; P1 r- N0 W; ?- e0 q4 s C" G美国:工业用电约 $0.085–0.09/kWh[44]- r }' e$ V' }) ?, }! O% ~ K
欧洲:非居民平均 €0.19/kWh ≈ $0.20+/kWh[45], W5 g0 F# f' I! O# [0 ^1 y$ p
中东/UAE:工业用户 $0.07–0.13/kWh[47]
! q3 R; j" o7 k: d: b人工:
& o- y% w0 G; Y, M/ b中国数据中心运维:约 $22k/人/年
N$ T! @) i6 x- K美国数据中心运维:约 $120k/人/年[1]
2 R% o( c" t+ ]7 B7 ^# R结论:电价上中国西部/北部与中东有显著优势,人工成本上中国远低于美欧。& ?' a6 L$ X) i' t4 w% [
能耗与每 token 能源成本:能效差异远大于电价差异7 f% {* D6 a. _$ |) B0 f" t3 {2 q4 {
- c& W; w( K4 H z5 |% W8 k6 \4 i
IEA:2022 全球 DC+AI+加密耗电 460TWh,2026 可能至 620–1050TWh[86][90];AI 专用服务器约 90TWh 量级[30][90]。
( J- x1 J, |# }6 u大规模 LLM 推理能耗估算:H100 集群训练 GPT-3 175B 约 2.46–3.63 J/token(训练)[10][16];经推理优化后,Inference 端典型可做到 0.4–1.0 J/token 级别[17][26]。
" [- J' f% l8 q1 W/ S6 \# E$ I将 token 能耗约化为统一口径: c) p* b3 c& d2 @: P- Y
粗略取 1 J/token = 2.78×10⁻⁴ Wh/token。若电价为:6 ]# ]' e* t7 T* x$ X
中国 0.3 元/kWh ≈ $0.042/kWh:电费 ≈ 1.17×10⁻⁸ $/token ≈ $0.0117/百万 token
6 N3 f& @4 G/ b7 A% |0 `美国 $0.30/kWh(题设):电费 ≈ 8.34×10⁻⁸ $/token ≈ $0.0834/百万 token3 c7 k4 k7 R6 A
对比:OpenAI GPT‑4.1 / GPT‑5.2 系列对外 API 输出侧价格 $8–168/百万 token[62],电费占比 远低于 1%,真正决定成本差异的是硬件 TCO 和利用率,而非电价本身。2 n8 {$ L+ b. [
不同芯片方案的核心差异
; ^4 ]& `/ Y4 V$ X1 D m
) u0 |( u; ]! TNVIDIA Blackwell/B200 & GB200 NVL72: e, X) _& R P+ F0 D6 B' B4 ^2 ^
单 B200 GPU 峰值 ~4.5 PFLOPS FP4/FP8,功耗 600–1000W[68][69]。
; f8 J1 \* T( G4 }/ ?5 W, ~, }GB200 NVL72 整机架售价约 $3.0–3.35M,72 GPU[34][69],GPU 约占整个 AI 数据中心总 CAPEX 的 39% 左右[36]。
0 I9 I7 [2 b" @* mGoogle TPU v5e/v5p/Trillium:
, b4 h8 m. h+ S; B) F, o4 qTPU v5e 8 芯推理:约 2,175 tokens/s(Llama2‑70B,INT8)[67];功耗显著低于 H100,同负载下能耗可降约 5 倍[67][52]。* Y) M$ P# V K9 S: b+ D/ L
Google 内部披露 TPU v5 能效约为 H200 的 1.46×,Trillium/TPU v7 更高(约 2× 甚至以上)[52][65]。: P8 v4 i9 f! y" X+ t8 v: B G$ |
华为昇腾 910B:
( J' U# Z& S; n9 I& N. R KFP16 算力 320–376 TFLOPS,INT8 640 TOPS,TDP ≈ 310W[80][81][82];能效接近甚至超过 A100,在长序列推理上 token-per-watt 可超 H200[71]。
7 S8 u" x+ e% A; I F$ W单芯片成本约 5 万元人民币 ≈ $7k[60],显著低于受限版本 H20/H100。
6 u6 _0 S9 X2 [阿里平头哥真武 810E(Zhenwu PPU):
* Z! |( @3 v) |* A96GB HBM2e、700 GB/s 互联带宽[59][111],功耗约 400W 级别[102],整体性能对标 NVIDIA H20/A800,并已形成万卡集群部署[59][111]。9 j r C- h7 A! k- }* I$ P) Q
结论:
) d! [- W0 O4 `( K5 L# n2 m能效(tokens/J 或 tokens/W)排序大致为:Google TPU v7/Trillium > NVIDIA B200/GB200 > TPU v5e/H200 ≈ 华为 910B ≈ 阿里真武 > H100/A100。
, q8 [8 H" c( ]' v1 g X; z单芯片/整机价格排序:华为/平头哥 < TPU 自用成本(Google 内部) < NVIDIA 公版(H100/B200/GB200)。
# G' T+ i) [0 E7 \# ]对中国市场,在算力性能足够的前提下,昇腾 + 真武 方案的 CapEx/每 token 成本有 30–60% 的价格优势。
g* p) `* R! R6 R7 X4 {自建 vs 云租的 TCO 与 token 成本- W0 G; D+ j% h" z' @1 F
: F, O6 ~4 j. G5 A. _4 M) M
LenovoPress 对 8×H100/H200/B200/B300 本地 vs AWS/Azure/GCP 的 5 年 TCO 对比[28]:
: {8 M' c j0 |* v: h4 m8×B300(Config D)自建 5 年 TCO ≈ $1.01M;% }8 [' E, s- i9 E, o
等价 AWS p6‑b300.48xlarge(24/7)5 年 ≈ $6.24M,节省 83.8%。2 l) v7 o( T! \9 W Y( z& Q
8×H100(Config A)自建对 Azure On‑Demand,回本点约 2,720 小时(~3.7 个月),对 1/3/5 年保留分别约 4,423/6,800/7,591 小时(~6/9.3/10.4 月)[28]。
2 g1 E: ^" q3 k/ Q9 {8 Y$ w9 T% @Token 成本对比示例(LenovoPress 场景)[28]:& w/ w8 e7 \# J) S, u
Llama‑70B 推理,8×H100 本地:约 $0.11/百万 token
D( b+ d( r7 N% ivs Azure H100 On‑Demand:$0.89/百万 token → 自建 ~8× 便宜。$ c9 }: j* n( G/ _0 {7 \. {
同样 70B 模型,自建 vs GPT‑5 mini API(约 $2/百万 token):自建便宜约 18×。/ [" D5 c* U' F$ b
Llama‑405B,8×B300 自建:$4.74/百万 token,AWS B300 On‑Demand:$29.09/百万 token → 节省 ~84%。
# }* b7 A, T5 L8 W; @结论:% a* G$ E/ ~3 m9 P7 O* G$ X
高利用率、长周期推理负载下,自建 AI 数据中心的每百万 token 成本可比公有云或高端闭源 API 低 1–2 个数量级。
* W: N( D1 y1 Q# U- W! FToken 电费占比极低,自建 vs 云租的差异几乎全部来自 硬件折旧 + 云溢价 + 运维与利用率。) V" `. l8 o! N0 v5 A" o: [6 G
二、建设期成本分布:区域对比& v- I' F% P$ w
以下重点讨论 壳体+机电(不含 GPU) 与 全栈(含 GPU) 两层。! r O; ~* s, w0 [! {8 G
1 K* f7 p: c# ~4 ^$ j
2.1 全球/通用结构(以 1 MW 为单位)
\7 ]8 d$ _! b& l" e- R8 P综合 JLL、ConstructElements 等[2][41][40]:7 `' G+ a/ C" f9 g5 U" }" U( b. S
$ U( G9 ?* ~* f2 Z0 [! W6 i壳体+机电(Shell & Core)
- q" _' Z. v/ A% a% }1 U& d. e8 P! }% I+ n# Z6 u
全球传统 DC 平均(2025):$10.7M/MW,2026 约 $11.3M/MW[2][41]9 H# [* _8 I) G+ ^" x
其中按成本构成[40]:
' E* b) ~6 b' A电力系统(变电、配电、UPS、母线等):40–50%$ K( v$ m" o6 v' l: Z! s
机械与冷却(冷机、冷却塔、管路、CRAC/液冷):15–20%
l3 t/ t! g" t6 k% v7 r; y0 }建筑与土地、结构:约 15–20%' ]& z) t. l' }
其他(消防、安防、楼宇管理等):约 10–15% M* o/ ]8 [' Y
IT 内装与 AI 基础设施(不含芯片)
- s! K# C; }2 F8 i6 P4 z& n& W! J* x x/ i
高密 AI 集群内部装修(高密布线、机架、液冷板/浸没舱等)会在每 MW 额外增加 $25M/MW 量级[40],对 GW 级园区影响巨大。 T- D9 ^" ]7 E, {
GPU/加速卡硬件 CAPEX
' M; p6 X3 @& g$ b4 S* b2 S" y3 P7 X. F. n& `
多数分析认为 GPU 占 AI 数据中心总 CAPEX 的 30–40%,其中 NVIDIA 单家毛利约等于整个行业 CAPEX 的近三成[36]。# _2 B, F9 |( v$ |, K
2.2 中国 vs 美国 vs 欧洲 vs 中东:1 MW 建设 CAPEX
0 p. U: c: R" X% |. j* K结合 ChinaTalk、JLL、UAE Stargate 等[1][2][20][13](仅壳体+机电):
/ t3 q3 B0 H( Y0 |6 l1 ~5 e3 |: M8 d, s( ^- t0 d
区域 典型建设成本(壳体+机电,$M/MW) 备注
) B$ Q% a2 |7 V. A7 G% R7 M中国 $5.5–6.5M/MW 以西部算力基地为主,400MW ~ $2.4B[1][13]
2 D* m: E0 O/ L/ u. j美国 $8–12M/MW 典型超大算力园区 400MW ~ $4.0B[1]
. t+ E# ~7 x) R i% R0 A欧洲 $10.7–11.3M/MW 接近全球平均,部分核心城市更高[2][41]6 E. |! y; E. I6 k+ z4 @9 V5 A
中东 ≥$6M/MW UAE 5GW Stargate >$30B → ≥$6M/MW[20]
. U' Z2 q8 S. m% x结论:2 Y; O, l8 X7 o
# O g# G g) m- d单位 MW 壳体+机电 CAPEX:中国 ≈ 中东 < 美国 < 欧洲。0 {- l" Q. b- ^) s5 Z4 u Z2 E
若考虑土地、电网接入和许可周期,中东(特别是 UAE/沙特)在电力可得性和政府补贴方面往往优于欧洲,趋近美国甚至中国。+ m9 W: ?" B$ R- I1 Z' O) H
2.3 引入 GPU 后的全栈 CAPEX(以 400MW 集群为例)
# D: b9 W4 A- p e; O X以 ChinaTalk 的 400MW NVIDIA GB200 NVL72 集群为例[1]:
% ^! f w' E8 z& {) u; A3 X5 J2 _# Y* R( ^5 f! |- F5 G
假设:PUE=1.11,电力侧 400MW,中约 360MW 投入 IT;
# Y3 K4 S; D# L o! h1 pGPU 配置:
) K' I9 @5 u7 j1 k; L' ~有效 312MW 用于 GB200 NVL72,约可容纳 2,154 racks(每 rack 144 GPUs,对应功耗 ~145kW/rack);
7 u2 \; \; ?# [& O2 S6 w每 rack 成本 ≈ $3.0–3.35M[34][69];
% t$ i# J. {* o' MGPU 总 CAPEX ≈ $6.5–7.2B 量级(ChinaTalk 抽样约 $5.6B 略保守[1])。% a0 m Z: n9 h& [* H
与不同区域壳体+机电组合:+ G$ Q3 V: K5 ^( m0 U
5 n `( i _( T1 \4 O# o
以中值估算:$ C4 W. _ @3 P9 I/ A
5 o$ F. Y8 p0 G( O中国 400MW:壳体+机电 $2.4B + GPU $5.6B ≈ $8.0B
/ F! r; n8 A' I/ e" i+ q美国 400MW:壳体+机电 $4.0B + GPU $5.6B ≈ $9.6B% b' b( b+ B1 h* Y
欧洲 400MW:壳体+机电 $4.5B + GPU $5.6B ≈ $10.1B8 b9 F: h6 r$ z$ B c
中东 400MW:壳体+机电 $2.4–2.8B + GPU $5.6B ≈ $8.0–8.4B9 X- v! r h! Q" {+ d9 p; `
可见:
7 ~$ G* y# F# p( A+ W! S3 r$ U' j5 K
|) p- a9 p7 [* k; ?% q, g2 KGPU 成本在各区域大致相同,决定区域 CAPEX 差异的主要是壳体+机电与土地/电力接入。5 F( s% s1 _% S, E1 Q& U) `9 M
相比美国/欧洲,中国和中东可在 400MW 级别节省约 $1.6–2.1B CAPEX,这对 IRR 有直接影响。3 x W& A1 f9 N; f5 s
三、运营期成本结构与区域对比
6 ~4 Z. A# g1 o& a. R4 ]) R; V3.1 通用 OPEX 结构(高密 AI DC)
) Y0 y4 Z6 g, S4 q, d/ n结合 ConstructElements、IEA、Microsoft/Google 披露[40][86][103][104]:$ d: {" Q. C" n' y! B; B1 v9 k; u
W4 v( P9 t$ h: L: ~6 ~1 I电力:约占总 OPEX 的 20–30%(传统 DC),对于 AI DC 因 GPU 负载密度提升,可达 30–40%。
7 O+ u% M- H# l7 X! d6 S S冷却与水资源:
) M9 C3 D/ V+ v/ K' h能耗:传统风冷约占总功耗 30–40%[39];液体冷却可将 IT 与制冷合并大幅降 PUE 至 1.1 左右[29][115]。
0 @$ U4 L1 q5 a- o: J1 j水耗:典型 DC 约 1.9 L/kWh 水用量[105],每日用水可达 300,000–5,000,000 加仑 规模[100][101]。
6 d( T3 N: I; W/ `+ m, z U人工:视地区而定,在中国/印度/东南亚占比 5–10%,在美欧可达 15–20%。
" k$ q2 n2 e, j3 X1 H4 G. M G托管/物业与维护:1 q1 j0 s0 |2 y q) n7 x" E
托管:高密机架约 $1,500/机架/月,标准机架约 $600/月[40][28];4 I7 r- H1 S+ F6 X" ?* q4 Q
硬件维护:LenovoPress 模型中按设备价 12%/年[28]。8 M- @ y, G5 r6 C8 E& Y
3.2 区域差异(以 400MW / 3 年期为例)
9 g8 C w+ R- w% T0 K E( Q使用 ChinaTalk 的电费与人工估算[1]:4 v* N/ |. f0 R% u
0 R/ I; E- z: \& S; F- K
电费(3 年) – 假设 GPU 利用率 60%,IT 360MW,PUE=1.11:
$ e; e$ a0 w0 k) Q& U5 ^7 P中国:约 $0.06/kWh → 3 年电费 ≈ $350M
) c+ c4 G2 d) J" i# D美国:约 $0.09/kWh → 3 年电费 ≈ $600M
1 A7 }! X" r. t! z中东:约 $0.07–0.10/kWh → $400–550M- y6 g; {4 d* u% \
欧洲:约 $0.20/kWh 以上 → 电费 > $1B(显著劣势)+ Z1 S5 H/ }/ k
水费(3 年) – 以 MS Fairwater 站点 280 万加仑/年为参照[1][103]:
6 O: g/ q4 X0 E+ {8 n美国水价约 $5.18/千加仑,中国约 $2.57/千加仑[1]# Z+ ~( }( s$ h# B6 T
三年水费级别:( A; R o" d5 r8 D8 d
美国:$40k+
. t6 _8 i# L; G, x L k, P( [中国:$20k+
+ V4 g* y: M! F- B- o) S! G结论:水费是数量级上可忽略的小项,真正的约束是水资源总量与选址,而非成本。
u. J$ x5 T1 h n" J6 S3 [$ s' z人员成本(3 年) – 假设 500 名全职运维:5 H s! ]+ d) F6 A
美国:500 × $120k × 3 = $180M+
# H- e2 T3 W* C0 A7 L8 a$ U2 V中国:500 × $22k × 3 = $33M+
7 _: P; x; f- {/ z" b3 E差异约 $150M,规模与 3 年电费差不多,是中美间第二大成本差异来源。) a6 r n4 x, p8 j, V+ u- ~
整体 OPEX 粗算(3 年) – 400MW 场景下:
8 Q. ?. G+ O6 z0 X0 r8 d# e6 \' |5 B7 ?" g3 R4 i# ? O
项目 中国 美国
- P6 h' T) l, |0 W9 A电费 $350M $600M
6 q/ H! s& o4 j. [2 L水费 <$0.05M <$0.05M
% i" L; b5 h- B5 T: x2 Z人员 $33M $184M
3 t) K- e/ V |2 t0 |, j/ I其他维护/托管 同比例估算,地区差异主要体现在人工与地价 4 w6 _' M. V' b1 \
结论: `$ A* o- [+ b# O
+ b: b1 ?$ t3 l1 _5 x" D; K( M6 c就 3 年期而言,中国与中东在 电价+人工 两项合计可比美国/欧洲节省 数百百万美元级,与整体 CAPEX(数十亿美元)相比不算决定性,但对净现值和现金流有实质贡献。
) h5 q& N% Z3 |+ J对大模型服务商而言,更核心的是 GPU TCO 与 token 单价之间的剪刀差,而电价更多影响“边际利润率”而非“能不能赚钱”。
" f( u6 T& O, Z3 n四、基于 token 的成本与利润推演
5 I' M2 a$ g$ D9 k/ b: J4.1 能源维度的 token 成本(题设 0.3 美元 vs 0.3 元)/ D! Q" w( T+ H8 ?
统一假设:8 [: |6 w4 u7 u3 u! ?& K* z: U
, R4 s* A- n2 s+ i2 U! R) p
典型大模型推理能耗:约 1 J/token(考虑 FP8/BF16 优化、Batch=256–512 时的能耗甜点[26][17][18])$ A0 J& f! G0 l2 z' Y
1J = 2.78×10⁻⁴ Wh → 每个 token 约 2.78×10⁻⁴ Wh
" z! o" t% I" M* [4 Q$ t) n1 百万 token:278 Wh = 0.278 kWh* R* n" s- j4 Y; n/ ?
场景 A:美国电价 $0.30/kWh0 G$ ^6 F. P- D6 o6 ^& S4 l
电费/百万 token = 0.278 kWh × $0.30/kWh" i9 p" j6 Q; V) g- P4 K4 a
≈ $0.0834 / 百万 token6 x$ b0 D+ C2 e3 U) j6 R+ s* {, j
场景 B:中国电价 0.3 元/kWh ≈ $0.042/kWh: C$ U3 P( q0 U( J) a4 R
电费/百万 token = 0.278 kWh × $0.0423 U3 `5 q- z' {% d
≈ $0.0117 / 百万 token
) N% ]. b( u1 y- f, `/ ]( G对比当前 API 价格(OpenAI 2026Q1)[62]
# H, P" \, o$ I5 q G以输出侧为主(成本最敏感):
: @: e2 [5 e% p, H$ U& w+ Y2 k, r" O1 d- [9 \9 {
模型 输出价 ($/百万 token)
/ Y Z# ?* C( I2 zGPT‑5.2 $14
7 D0 `* G6 `5 J& r6 P; M7 jGPT‑5.2 Pro $1682 r8 I2 k" i/ e7 R# }4 M( r( D2 e5 i
GPT‑4.1 $8! y1 Y+ V" K* {
GPT‑4o $105 q$ U7 y# s/ @2 M1 c
GPT‑4o mini $0.60' a% Q9 s; b( M/ X% s. j1 r6 T
则:& F4 t* I( K+ G( R2 G9 V. L
4 C4 Y% h$ D' t# z0 W
在美国 $0.30/kWh 的极端高电价下,电费占 GPT‑4o mini 收入的 ~14%(0.083/0.60),占 GPT‑4o 仅 0.8% 左右。
- P, g* o" P1 T3 Y9 C) ]在中国 0.3 元/kWh 下,电费占 GPT‑4o mini 收入的 ~2%,占 GPT‑4o 的约 0.1%。
2 i1 Z% v6 y/ ^* _2 V相比之下,GPU 折旧+云溢价+开发/运维成本才是主导。8 f3 X8 f: z# B3 g
结论:
0 g( D. w' [ d即便在“美国 $0.30/kWh vs 中国 0.3 元/kWh” 的极端对比下,每百万 token 电力成本差异约 $0.07,与主流 API 价格($0.6–$168/百万 token)相比仍属“小数点后两位”的影响。区域电价主要调节“利润率边际”,而不会改变“项目能否盈利”的结论。* I- V' \) K u8 Y c# ^
1 O0 n- G$ B) [& _& r6 j7 _4.2 全成本 per token:自建集群视角(基于 LenovoPress TCO)
8 W* q& W5 n2 b以 LenovoPress 的 8×H100 Config A 为例[28]:$ x& |' `0 n" Q j4 F1 E
# O! ^0 t0 y) F' [0 ]. @0 v
5 年摊销下,8×H100 本地推理 70B 模型:: S# i) w5 s9 Y9 I
小时综合成本(CapEx摊销+Opex):$12.08/h
: @0 V) Y, t) L( t' S2 Z吞吐:30,576 tokens/s → 每小时 ≈ 110M tokens D2 p* b4 w j2 p* F5 J
成本/百万 token ≈ 12.08 / 110 ≈ $0.11/M token
! d+ Q6 ~. v. u8 p$ }电费在其中的占比:
! t. r0 ]4 R& Q' [9 Q0 Y4 bOpex 6.37$/h 中电力+冷却约 $0.87/h[28]
" h: Z0 U* E9 p0 A& j电费/百万 token ≈ 0.87 / 110 ≈ $0.0079/M token! t) u: J8 o- \
电费占 总 token 成本 ~7% 左右。
" a; L9 U% \3 t/ J若将美国电价从 ~$0.12/kWh 提高到 $0.30/kWh,则电费约增 2.5 倍,对总 token 成本影响约 +10–15%。3 [) g3 @0 v: n! F. I
若迁至中国西北 0.3 元/kWh 或中东低价长协,电费可再降 40–60%,总 token 成本再降低约 5–10%。
. U/ R' Q& g4 B/ L1 @6 z
" _* y* b: |. R/ F/ ~$ F! t因此:
6 w4 b( w9 b7 {
) U6 M* j4 T; p1 d6 W- j) E在自建集群场景下,电价对 token 成本有可见但非决定性的影响(变化量级在 ±10–20%)。
) j2 l6 M% Y- F. x8 g+ \在云租和 API 模式下,电价影响则被进一步摊薄,绝大多数利润被云厂商的溢价和 GPU 供应链吸走。3 T; |+ m' [4 E$ z' X/ Y, E
五、不同芯片方案的建设与运营成本对比5 {4 d" D* M& v# [
5.1 NVIDIA 方案(H100/H200/B200/GB200)% Z3 H" _$ p* l! N- ^# T: P
CAPEX:+ G7 P7 T% o5 I4 O
% T# j; q6 e! m9 U; ^! }% R
H100:单卡市价 $25k–35k,8 卡服务器约 $250k+(Lenovo 配置价 $250k 左右)[9][28]。
- A3 }3 L! u- A6 wH200:显存提升,单卡价更高,8 卡节点约 $280k[28]。
8 B* D* _ `: C0 U8 I( `B200:Blackwell 代 GPU,8 卡服务器约 $338k[28]。2 Y" L4 S4 ]3 M# a
GB200 NVL72:
4 L) \0 j- _, w7 J+ o9 ?( e. j每 rack 带 72 GPU + 36 Grace CPU,售价约 $3.0–3.35M[34][69]。- }+ E) S( K" v3 S* M, q
冷却系统每 rack 额外 $50–56k[35]。
& |; o3 p1 v; h# Y' D! |# ^在 400MW 场景中,GPU 总 CAPEX 约 $5.6–7B,占总体 CAPEX 近 40%。' ]7 I u n4 g2 @: f
OPEX & 能效:
1 k) K$ ~+ g/ _. ~7 ^& Q, |% q2 O* v, J9 K" [. p A- M! G% T) L
单 GPU 功耗:
' l4 H' I6 x" lH100:TDP 700W;集群实际单 GPU 含服务器/网络开销可到 ~1,500W[16]。: o8 ^) p( |; S5 i1 t p
H200:功耗类似或稍高,但性能/W 提升[9][10]。
# ^9 p6 \# \& i0 a7 H7 pB200:标称 1,000W TDP,但实测约 600W 左右[68][69]。% P) r) {0 d$ B+ Q
Token 性能:
5 c8 p8 j1 h6 R3 E# jB200:官方推理基准中,可达 60,000 tokens/s/GPU 级别(gpt‑类模型)[68]。4 }# h7 J+ i$ g& f1 J4 v
NVIDIA 的优势:
, M9 ^, G, O( ]; p3 z1 i- w3 J: e1 c Y8 b/ C& T
软件栈成熟(CUDA/TensorRT‑LLM),易于榨干硬件性能,batch 与多 GPU 并行调度成熟 → 在同等 PUE 与模型条件下可达更高 tokens per Watt。
2 L) C# J$ }& Q, z7 _! y! p! J. k" Y7 P但硬件价格与毛利极高,从 TCO 角度,“谁买单 GPU 溢价”是关键——云厂商多半将成本转嫁给 API 用户。
# n. o! {' X1 C9 ]% K5.2 Google TPU 方案% m- P8 v. s( O; |
CAPEX:
& G) F5 x0 w+ v# N" v# O! l C( Q( G' ^% ~2 n) j
单 TPU v4 定价约 $3.22/芯片小时,v5/v6 在云端按实例小时定价对外[52][54]。0 a& p# k4 V/ ~* G7 U/ V* _
GSR 估算:TPU 的出厂 ASP 约 $4,500–5,000/片(Google 内部成本)[54]。
/ H# z0 N: g6 a& s2 B: I8 TPU v5e 实例约 $11/h,而 8×H100 云价可高达该数值的 5–10 倍[52][54]。
) R6 X. M% \% u0 n能效:" {6 S5 @# l$ f. z2 R! v5 h
' K' m4 M. Z' }
TPU v5e vs H100:% h" _* j: A; u" w
同级推理场景下,8×TPU v5e ≈ 2,175 tokens/s(Llama2‑70B,INT8)[67],H100 需更高功耗才能匹配。8 |. s9 z7 P; P+ _( m
测试表明 v5e 功耗约为 H100 的 1/5 左右[67][52]。
* z, p& |5 `; `9 G! d& J( `7 A新一代 Trillium/TPU v7:
. e% d5 Q1 r# ], a5 m& [能效比 TPU v5p 提升 ~67%,对 H200 或 B200 整体上能实现 2–3×性能/W 优势[52][65]。$ S M! Q& L6 `; \
Google 方案的特点:8 q7 l/ _0 q- E( N( s- m3 M
6 k4 V, f. E. W0 J
自用闭环——Google Cloud + TPU + Gemini,利润来自整体云栈,而非单个芯片;' Z S9 R# V% u: {6 L3 ~2 A6 D3 X
对外公布的 API 价格较为激进,TPU 方案在 tokens/W 与 tokens/$ 上具有显著优势,尤其在内部工作负载。* V$ {/ W) K4 Y( c1 V
5.3 华为昇腾 910B / 910C 方案4 i5 Z3 C& y, D# D+ D" K
CAPEX:
4 _/ I4 n2 e" g% Y
( a9 T( a9 b. ~& T$ d1 E单 910B 芯片成本约 50,000 元人民币 ≈ $7k[60];910C 约 110,000 元[60]。0 R3 H) J: T- g+ S9 G$ l: H- y
与 A100 对比:
8 P, Y, _4 {& t: qFP16 算力 320–376 TFLOPS,功耗 310W,性能接近甚至略高于 A100(400W)[80][81][82]。9 x- U1 M/ d6 m) ]8 P3 c9 f% s
市场报道中,NVIDIA H20 在中国售价约 10 万元/片,而 910B 更便宜 30–40%[61][72]。
& |6 x# P2 f, q- E ?$ E使用昇腾构建类似 400MW 级别集群,总 GPU CAPEX 相较 NVIDIA 可节省 30–60%,视集群规模与供货条件而定。( |; Z4 r* g7 X' v I
OPEX & 能效:
2 }2 i' Z$ z1 q9 C* N8 t
& w5 i. k; y( q( o7 ]) o8 w1 ^910B 功耗 310W,FP16 320–376 TFLOPS → 性能/W 与 A100/H20 接近或更优[80][81][82]。
: H4 _8 D% O/ N5 w0 _' F部分推理 benchmark 显示,长上下文(>4k token)推理时,910B 在 tokens-per-watt 上可超过 H200[71]。" n- z# i; a: [9 p% D+ T9 @& e
在中国电价(0.3–0.4 元/kWh)环境下,昇腾方案在 TCO/tokens 维度有明显优势,但生态与软件栈仍在追赶 CUDA。1 [6 V: r! l- ^& Y3 O
5.4 平头哥真武 810E(PPU)方案7 o$ e# h9 z4 Z# l7 d1 X
CAPEX:9 j, ]- r+ }- h2 Q4 a1 J+ g2 l9 h
6 R7 x0 k. Z' j( c2 X& Q5 W技术参数:
( p q, B7 m* } L5 B96GB HBM2e,片间互联带宽 700GB/s,自研 ICN 互联,PCIe 5.0 ×16,400W 功耗级别[59][102][111]。/ v- c, y+ G H8 B. ?
性能:官方宣称整体性能超过 A800 与主流国产 GPU,与 NVIDIA H20 大致相当,升级代际可逼近/超过 A100[59][110]。
- h" c- P7 m! y% z价格:
c( u4 R. w9 N- o) \ ]未公开详细单价;多个媒体报道指出“单位算力成本可下降 ~40%”,与英伟达 H20 有 3–4 成价差[74][112]。$ P+ i1 J2 p( }$ S8 n0 j& n8 C
结合国内报道:
Y; R) m+ V/ ?) O& C- r" P. }2 n$ t( S2025 年出货量数十万片,已在阿里云实现多个万卡集群部署,服务 400+ 客户[59][111]。
* Z6 K, I. ]. g9 @: I. }: ~数量规模与生态成熟度迅速提升,使得 真武+昇腾 成为中国公有云/算力租赁的主力基础。6 K* ~; h' h" t2 C! _
OPEX & 能效:
+ {; ]$ H+ I, N" H/ z6 o& e
/ [! `# ^* L/ U5 S4 n7 i400W TDP、96GB HBM2e,使其在 高上下文、RAG、大模型训练+推理一体化场景 中具有良好性能/能效平衡;) s& i, d% T/ r6 V1 D1 i, x7 W+ y
在中国低电价 + 低人工成本环境下,真武方案可将 AI 推理服务的综合 token 成本进一步压缩 —— 对标 NVIDIA H20,本地算力提供商可在保持 ~8–9 成性能的前提下降价 30–40% 仍保持毛利[74][112]。
! `2 _& v: V0 B4 B$ A六、综合比较与策略建议
% p' {+ f3 H# D( ]6.1 区域维度:在哪里建 AI 数据中心?' | W: h1 w9 ?9 b+ `9 i
纯经济性(TCO/tokens)排序(假设无政策/合规约束):1 Q3 {, I/ F) M3 A& [/ e
( B( M/ D; | y- |6 {8 s2 u中国西部/北部(电价低、人力低、建设成本低)
; V1 v* _- @7 I, r+ G. C, }中东(UAE/沙特)(电价中等偏低、土地与电力可得性好、政策支持)4 X$ i- m! q" B) U
美国电价低但人工高;东海岸/加州电价上涨压力大1 T/ i# E& r' l- \1 l; e; j( D/ c
欧洲电价高、审批严格,但接近高价值企业客户和数据主权要求6 m* i4 o/ J# R$ k. J) `) S
若以“美国 $0.30/kWh vs 中国 0.3 元/kWh”极端场景比较:7 e' s2 v4 q8 g3 R
" a( D% M9 b+ h( ? D" I
纯电费/百万 token 差异:约 $0.083 vs $0.012 → 差别 ~$0.07/M tokens; B: z( Y4 G: i. Q% A
对比 API 价格:差异对整体利润率的影响远小于是否使用 NVIDIA vs 国产芯片、自建 vs 云租的差异;
$ m ~/ q/ b! d- c( y; E但在极高利用率的 自建超级集群 场景,电价仍然能在 5 年 TCO 上带来 10–20% 的边际优化,是选址决策的重要考虑。
/ l4 e! S- x- l" v( A6.2 技术栈维度:选哪家芯片/云栈?% |# x$ x/ h$ c' x4 f4 w' F
若目标是全球最优 tokens/$ 且不受出口管制:
+ T) e9 e9 |+ G6 J
( O! M# s! b9 Z" V: IGoogle TPU v7/Trillium + 自建 on-prem:性能/能效与成本的综合最优,但前提是可以直接获得 TPU 硬件与软件栈授权(现实中仅限 Google 内部和极少数大客户)。
; k7 n8 {0 m7 _- @若在美国/欧洲,能自由采购 NVIDIA:) f: d; S+ h/ f5 ]: U' \" c q
7 B/ q" I6 }, s" G; g! H
短中期内,NVIDIA B200/GB200 NVL72 仍是最佳实践:/ o5 U- S1 e/ E' d- y4 g8 J
成熟的软件栈与生态,极高的 tokens/s/GPU;
7 I4 d1 b. Z7 t2 ?9 V# f# t在云厂商/超大规模自建模式下,配合液冷与 PUE~1.1,可取得较低的 token 成本;
4 O+ j8 |0 |" y0 ^* h但要谨慎评估 GPU CAPEX≈总投资 40% 的集中风险。1 ~ y- c; p( @9 ?7 R0 B
若在中国或存在出口管制约束:
! _$ Q6 g$ c& W5 y
0 b# G: O7 {; y. f7 L2 ^昇腾 910B/910C + 平头哥真武 810E 是现实可行的主力组合:
% Z' ^8 L7 N5 j. @- X性能上已能覆盖大部分 GPT‑4 类推理需求;
7 b% G3 Z2 }$ \# [0 L- L% ]单片成本显著低于 H20/H100,集群 CAPEX 明显更友好;
) O4 H- `* a. Z# _3 [! T6 W* o7 L1 ]软硬件全栈国产(CANN + MindSpore + 通义/Qwen 等),可避免制裁风险;
& y' Y f0 M5 h/ v建议配合:
& |. C% [1 q# H, J高效液冷(PUE~1.1)、
, `* _5 F, ?1 {/ F2 t; |大 batch、路由(浅层任务走小模型/低成本芯片)、
7 k8 E& [1 t- L- m强量化(FP8/INT4)与分层缓存策略,进一步摊薄 token 成本。) Q4 y2 g5 _# S u+ }; P& {+ _
长远看,“tokens-per-watt / PCE” 取代单纯 PUE/FLOPS 成为核心 KPI:
0 k( x+ Z' _9 b, k3 M$ K, \* ~5 \& B' J2 N" J! L. k1 G
数据中心运营者应从“PUE 1.5→1.1”的设施思维,转向“每瓦输出多少有价值 token”的AI 工厂思维[29][118];1 v. q2 {! }6 a- v
这意味着:% Z O5 d# w# R) n" u6 D9 ^. ]
优先选择 更高 tokens/J 的芯片架构(例如 TPU v7、B200、后续国产芯片);5 E7 z' t$ r. V, Z* X1 a
精细化调优 batch size、路由策略、CoT 深度,将“energy-per-token”作为最优先指标来优化[17][26]。! e/ x5 n+ n, d% m: v0 o) V7 h& G
6.3 针对你关心的具体问题的简要回答8 N7 |: n1 |8 Q; H! T
AI 数据中心建设 vs 运营成本的大体比例?
- G8 w1 H, ?4 O
* {* S R# ?0 z5 J: a R在 5 年期 TCO 视角下,CAPEX(尤其 GPU)约占总成本 50–70%,运营成本(电力+冷却+人工+维护)约 30–50%。
* q( U! W9 m# i: V. j其中 GPU 自身 CAPEX 占到总 CAPEX 的 30–40%[36]。
# u) ` }5 N& m) [6 a, }6 n中国、美国、欧洲、中东的成本结构区别?
8 P3 G/ N: n; s0 c: t! i8 L
) B% w6 s4 y" |9 {( a2 v建设期:* F0 I' m! f' P; P; `$ P( O
中国/中东的壳体+机电成本明显低于美欧(约 5–7 vs 8–12 vs 10–11M $/MW)[1][2][20]。
% E V6 W# h* n2 ~0 A! ?运营期:
; A; @, ?6 U$ B2 O0 t1 T电价:中东 ≈ 中国西部 < 美国平均 < 欧洲
- V C$ D; q. V1 r' T7 B* G* y人工:中 国 ≪ 美 欧,中东居中。. o/ |- L$ ^" ~- T! q
在美国 $0.3/kWh 与中国 0.3 元/kWh 下 token 成本与利润率?
6 @! G; d E3 I! ~. v/ k7 a& e+ q: p& U* K* W
对于典型 1 J/token 推理负载:5 h0 p, z) c) m/ X! T5 O
美国 $0.30/kWh:电费约 $0.083/M token- D: W! y- k/ d$ l
中国 0.3 元/kWh:电费约 $0.012/M token
+ z: B$ _9 ~$ f. ~ H" d$ x对比 OpenAI 等对外价格($0.6–168/M token),电费无论在中国还是美国都只是利润表里的“小头”,主导因素是 GPU TCO 和平台溢价。9 p$ ]: H* z3 Q& Y! |# U. c
不同技术方案(NVIDIA / Google / 昇腾 / 平头哥)的建设与运营成本谁更有利?3 P4 Q: g' E* _0 [$ L7 r
9 c& k* _# ~7 z G9 p" C7 W9 d* m4 w
在可获得 TPU 的前提下:Google TPU v7 在 tokens/W 和 tokens/$ 上最优;
: c& a& b( o+ X- @! X全球通用方案:NVIDIA Blackwell 全家桶(B200/GB200)+ 液冷,但 CAPEX 巨大;7 y3 h% ?7 Y8 @: O' ] |) b
中国/被管制市场:昇腾 + 真武 是当前最有经济性与可持续性的路线,综合来看能把 token 成本压到 NVIDIA 方案的 40–70%。 |
评分
-
查看全部评分
|