TA的每日心情 | 擦汗 2026-3-17 22:01 |
|---|
签到天数: 1133 天 [LV.10]大乘
|
沙发

楼主 |
发表于 2026-2-26 21:43:21
|
只看该作者
后来想了想,我让龙虾爬了一个分析全球AI数据中心建设和运营成本的报告,内容如下:4 o) u/ a3 l. \
( x/ c# c$ a/ ~2 B) M. t0 M9 r: m一、总体分析框架与核心结论! `4 s, H" O9 r+ S' v& U& r
1.1 分析框架概览
( G& V1 G5 _. @* J拆分维度/ h0 q4 Y% S8 @ ~: L& h) b
1 q8 G. A( k% ]" l+ a: h
阶段:8 p8 J2 o0 X0 M8 G; v
建设期(CAPEX):土地/建筑、供电与配电、制冷、IT 硬件(GPU/TPU/加速卡)、网络与其他基础设施8 I4 c) ^. |! g, o. [
运营期(OPEX):电力、水、运维人员、场地/托管、维护与更新、网络带宽等
; S/ Y# S6 W2 z) Y$ F: ]" z! t# W% S( W区域:
1 c) g! G* ^5 s4 U' c: t, \8 {中国、美国、欧洲、中东(以海湾地区/UAE 为代表)5 K* Z& e1 Q- W+ W3 t& l0 G; g% R
技术方案:
" I$ k5 R I8 G, H8 b; KNVIDIA(H100 / H200 / B200 / GB200 NVL72 等)3 n. p5 T4 \" H
Google TPU(v5e/v5p/Trillium 等). e$ X0 s* e9 M: @( O) _( Q
中国芯片:华为昇腾 910B / 910C 系列、阿里平头哥真武 810E(PPU)2 v- u; @' u; x1 n
算例基准
) W6 E7 }: W4 C1 W& J% V
+ c' v' j. D& a. z; Y以400 MW 级 AI 数据中心为统一标尺(与 ChinaTalk BOTEC 分析保持一致)[1]:% x! ~: Z1 l8 p
其中 IT 有效功率约 360 MW:GPU/AI 加速约 312 MW,CPU/存储约 48 MW% |/ R! P: x) h
PUE 假设约 1.11(高效液冷场景)[1][29]9 w9 C4 Y! U$ l- j5 N: j9 S
时间窗口:3–5 年运营期(与行业 TCO 分析和硬件折旧相匹配)[28]4 Y1 B, z6 ~$ b5 f2 T
关键指标
# |0 O9 W, u& M% Z) D. F% X$ A; m0 E. v
$/MW 建设成本(含/不含 IT 硬件)
; m3 i9 r: p0 Z* F l" g$ }2 v$/kWh 电力成本、L/kWh 水耗! T8 P9 t, V" D2 I3 U J6 U) P
$/token 或 $/百万 token 的综合成本
- B* H9 A1 x& [ D$ ^0 u7 jToken-per-watt / Joule-per-token 作为能效基准[17][18][26]
- j3 J% x8 z0 D项目 IRR/回收期、吨位级 TCO 对比(自建 vs. 云租)
8 j9 r3 @8 b% C" q' R* G1.2 高层结论(供决策快速参考), l; I% y$ O. }: Y( j( z
建设成本:AI 数据中心相对传统云数据中心成本翻倍
4 i1 [( l/ S3 @6 F$ K0 k" ?1 l; k; b! M. p1 z$ W, d
传统云数据中心壳体+机电平均约 $10.7M/MW (2025),预计 2026 升至约 $11.3M/MW[2][41]。
+ z2 k7 h& I; N: g1 q lAI 优化数据中心(高功率密度 + 液冷)壳体+机电可高达 $20M/MW 甚至更高[41]。* B( y& u& Y3 I4 Y: P1 i
按 Accenture/Soben 研究,传统云 DC 为 $8–10M/MW,而 GW 级 AI 数据中心可达 $17M/MW(仅壳体+机电,不含 GPU)[3]。# d5 C$ H% ~' e2 r2 K) ]/ X6 w# Z
区域 CAPEX:中东≈中国 < 美国≈欧洲 < 高端 AI 园区! U0 W$ E& b2 p
' h3 D4 L6 b7 w& S2 D
中国:$5.5–6.5M/MW,400 MW 约 $2.4B[1][13]
+ T1 H; h: ^' a; A3 W( I ^美国:$8–12M/MW,400 MW 约 $4.0B[1]
+ n/ p( ?/ e5 q- M) K欧洲:接近全球平均 $10.7–11.3M/MW[2][41]1 o5 v, ~ _" M& f# n! _( ]$ U
中东(UAE Stargate 5 GW):总投资超 $30B,约 ≥$6M/MW[20]
& C1 c; @1 F. Q' N' a( y2 e/ j2 @! I结论:中国与中东的壳体+机电 CAPEX 明显低于美国/欧洲,同等规模下节省约 30–40% 构筑成本。
8 }9 Z5 t. }8 W% ROPEX:电价与人工决定区域优势* D( _. Z5 u4 ~' }
3 S' A' K3 L b1 T/ t' _
电价(2025–2026 工商业大致区间):
( K1 g1 J0 o! a7 q* C中国:约 0.8–1.1 元/kWh ≈ $0.08–0.11/kWh,部分算力基地可通过长协拿到 ≈3 美分/kWh[12][73]
7 ^, P8 H1 L' g- J8 E& i- J美国:工业用电约 $0.085–0.09/kWh[44]% m2 [- l2 j, u. t6 w/ c/ y
欧洲:非居民平均 €0.19/kWh ≈ $0.20+/kWh[45]
. l8 p* U' H/ b2 [/ _中东/UAE:工业用户 $0.07–0.13/kWh[47]: q8 H7 D" L/ ]- c' b# W1 F
人工:
3 v- f, \, ~1 i. x4 Y中国数据中心运维:约 $22k/人/年+ N( R. r* \/ w3 R1 l- ^
美国数据中心运维:约 $120k/人/年[1]- B% P; V" U# F6 p2 p$ u4 @& r
结论:电价上中国西部/北部与中东有显著优势,人工成本上中国远低于美欧。2 I' ^! ]* }4 \% w/ @: O
能耗与每 token 能源成本:能效差异远大于电价差异1 s$ ]! h0 H9 L6 I, |! k9 t
3 w, ^; w. R" u& `4 Z
IEA:2022 全球 DC+AI+加密耗电 460TWh,2026 可能至 620–1050TWh[86][90];AI 专用服务器约 90TWh 量级[30][90]。& b4 v9 v- { z* i6 c/ n1 [& |
大规模 LLM 推理能耗估算:H100 集群训练 GPT-3 175B 约 2.46–3.63 J/token(训练)[10][16];经推理优化后,Inference 端典型可做到 0.4–1.0 J/token 级别[17][26]。( j A2 }& q; g% N: p4 B, k2 l J4 i' k
将 token 能耗约化为统一口径:
: |2 X- v" B4 f8 y ]粗略取 1 J/token = 2.78×10⁻⁴ Wh/token。若电价为:! f0 V1 }9 h1 l- N) K/ P
中国 0.3 元/kWh ≈ $0.042/kWh:电费 ≈ 1.17×10⁻⁸ $/token ≈ $0.0117/百万 token6 c8 Z3 p8 m- C9 ?( N* ?
美国 $0.30/kWh(题设):电费 ≈ 8.34×10⁻⁸ $/token ≈ $0.0834/百万 token! f# u3 m5 W7 m
对比:OpenAI GPT‑4.1 / GPT‑5.2 系列对外 API 输出侧价格 $8–168/百万 token[62],电费占比 远低于 1%,真正决定成本差异的是硬件 TCO 和利用率,而非电价本身。* T# L; m8 A% w0 l4 G
不同芯片方案的核心差异& u- y0 Q+ h* h" j% G! t0 ~
5 [7 z6 `& A1 _8 A" C: A8 S3 m
NVIDIA Blackwell/B200 & GB200 NVL72:. v6 |3 v7 ^/ z) J- V! ^
单 B200 GPU 峰值 ~4.5 PFLOPS FP4/FP8,功耗 600–1000W[68][69]。
( D5 j9 m; ^& n3 cGB200 NVL72 整机架售价约 $3.0–3.35M,72 GPU[34][69],GPU 约占整个 AI 数据中心总 CAPEX 的 39% 左右[36]。6 d8 E& S' p& Z% T B1 w
Google TPU v5e/v5p/Trillium:) g# v! q2 h8 J
TPU v5e 8 芯推理:约 2,175 tokens/s(Llama2‑70B,INT8)[67];功耗显著低于 H100,同负载下能耗可降约 5 倍[67][52]。
3 m9 _, \; Q, ~Google 内部披露 TPU v5 能效约为 H200 的 1.46×,Trillium/TPU v7 更高(约 2× 甚至以上)[52][65]。/ D& U6 ~) J4 Y4 [
华为昇腾 910B:
7 i+ Q( u, _: r% w! ~0 I4 ~FP16 算力 320–376 TFLOPS,INT8 640 TOPS,TDP ≈ 310W[80][81][82];能效接近甚至超过 A100,在长序列推理上 token-per-watt 可超 H200[71]。
& {- S, a1 I3 O# y4 q$ G单芯片成本约 5 万元人民币 ≈ $7k[60],显著低于受限版本 H20/H100。# o" [- a* }7 b! [0 m
阿里平头哥真武 810E(Zhenwu PPU):
2 D6 W- c! E7 x3 H96GB HBM2e、700 GB/s 互联带宽[59][111],功耗约 400W 级别[102],整体性能对标 NVIDIA H20/A800,并已形成万卡集群部署[59][111]。, f8 A1 X1 C/ K2 A \. l
结论:1 c @! @! R6 D2 u
能效(tokens/J 或 tokens/W)排序大致为:Google TPU v7/Trillium > NVIDIA B200/GB200 > TPU v5e/H200 ≈ 华为 910B ≈ 阿里真武 > H100/A100。" R. l* @$ _2 s. \
单芯片/整机价格排序:华为/平头哥 < TPU 自用成本(Google 内部) < NVIDIA 公版(H100/B200/GB200)。
8 |( }5 X+ c( S1 }; m0 v7 ]对中国市场,在算力性能足够的前提下,昇腾 + 真武 方案的 CapEx/每 token 成本有 30–60% 的价格优势。; j7 E+ H6 G" i9 A; D" _
自建 vs 云租的 TCO 与 token 成本
! w6 s6 s8 y! T: o! p: Y8 C
3 A5 ~) N3 R. t# i: \5 b; XLenovoPress 对 8×H100/H200/B200/B300 本地 vs AWS/Azure/GCP 的 5 年 TCO 对比[28]:% q: s% Y+ x7 X% f) g
8×B300(Config D)自建 5 年 TCO ≈ $1.01M;. r' V, h' z: j9 E% v6 ]! j
等价 AWS p6‑b300.48xlarge(24/7)5 年 ≈ $6.24M,节省 83.8%。
" u* `# x$ D7 I1 k' n9 g: |8 {8×H100(Config A)自建对 Azure On‑Demand,回本点约 2,720 小时(~3.7 个月),对 1/3/5 年保留分别约 4,423/6,800/7,591 小时(~6/9.3/10.4 月)[28]。
+ }# X% Z6 A# b4 ~1 a4 n/ ^9 BToken 成本对比示例(LenovoPress 场景)[28]: A: ]8 \# r2 O. I
Llama‑70B 推理,8×H100 本地:约 $0.11/百万 token$ g, p& q0 P7 ?* x9 G+ \7 |& Q
vs Azure H100 On‑Demand:$0.89/百万 token → 自建 ~8× 便宜。
J$ ] W. F6 w* K7 z同样 70B 模型,自建 vs GPT‑5 mini API(约 $2/百万 token):自建便宜约 18×。; l$ _0 \) X2 F" r' j" m
Llama‑405B,8×B300 自建:$4.74/百万 token,AWS B300 On‑Demand:$29.09/百万 token → 节省 ~84%。
& O- M0 r" C& D3 ~, D7 M结论:
: s; Q$ Y% Q5 k. I x$ R8 h& I高利用率、长周期推理负载下,自建 AI 数据中心的每百万 token 成本可比公有云或高端闭源 API 低 1–2 个数量级。
; D7 @+ o( y: ^* N& u. g- dToken 电费占比极低,自建 vs 云租的差异几乎全部来自 硬件折旧 + 云溢价 + 运维与利用率。! G8 l" N X7 T7 o
二、建设期成本分布:区域对比
# x8 S; u$ T% m# O S5 X' N以下重点讨论 壳体+机电(不含 GPU) 与 全栈(含 GPU) 两层。: ] x5 U# Q' m
8 a# y+ z1 a9 `) k( y7 }2.1 全球/通用结构(以 1 MW 为单位)# ~/ y; f7 I" M/ E, B+ |" Y( Y9 t- B
综合 JLL、ConstructElements 等[2][41][40]:
2 b" G; z3 }# ?' O6 ]2 g% J# X) s6 g# V8 J( C( Z7 L; B6 ]; Q/ N
壳体+机电(Shell & Core)
; S2 Z2 |9 [7 Y! F$ C$ K" a5 P5 q# ?2 H' k3 e. o1 @
全球传统 DC 平均(2025):$10.7M/MW,2026 约 $11.3M/MW[2][41]) ~8 Y% w: v& b1 o: \) l
其中按成本构成[40]:- A @/ k B# R
电力系统(变电、配电、UPS、母线等):40–50%! M. V: u; q3 O# X& L& R( P4 j
机械与冷却(冷机、冷却塔、管路、CRAC/液冷):15–20%
; r* i; D8 _3 [, a; n W建筑与土地、结构:约 15–20%
) ~1 q& m% {0 ^! m0 {3 @* v其他(消防、安防、楼宇管理等):约 10–15%/ X# h$ f/ Z1 A" C
IT 内装与 AI 基础设施(不含芯片)* k4 @( K' P) g( Y: G. l/ w
4 f6 S5 [' e& I5 X) M. P' p
高密 AI 集群内部装修(高密布线、机架、液冷板/浸没舱等)会在每 MW 额外增加 $25M/MW 量级[40],对 GW 级园区影响巨大。
& H6 h$ C% n* I+ LGPU/加速卡硬件 CAPEX# v% [& i8 F6 o! `6 N8 Q1 A
9 ?) S/ ^( |( s* g9 L+ Z
多数分析认为 GPU 占 AI 数据中心总 CAPEX 的 30–40%,其中 NVIDIA 单家毛利约等于整个行业 CAPEX 的近三成[36]。' |0 L- z; E- M6 N0 ~- H0 z9 H
2.2 中国 vs 美国 vs 欧洲 vs 中东:1 MW 建设 CAPEX( [5 c* w. a4 C/ V7 i
结合 ChinaTalk、JLL、UAE Stargate 等[1][2][20][13](仅壳体+机电):
: m+ M9 a1 y: O8 o3 s! O# y K& v3 c
% S1 D2 c+ x/ w+ d- r; x. w区域 典型建设成本(壳体+机电,$M/MW) 备注1 M/ {; ]% w* S3 r( L
中国 $5.5–6.5M/MW 以西部算力基地为主,400MW ~ $2.4B[1][13]2 @/ k& G* w* m& H# |; W
美国 $8–12M/MW 典型超大算力园区 400MW ~ $4.0B[1]/ c. r( B: p. f' c0 X& n2 o
欧洲 $10.7–11.3M/MW 接近全球平均,部分核心城市更高[2][41]2 q1 _& q$ _' K% R8 t. r
中东 ≥$6M/MW UAE 5GW Stargate >$30B → ≥$6M/MW[20]
8 s! W" j) ?1 v7 O$ X$ [0 @结论:
9 P9 e6 W+ y+ V* ^% a. W) t! Q7 f8 ^; }; U
单位 MW 壳体+机电 CAPEX:中国 ≈ 中东 < 美国 < 欧洲。1 x0 R: e. Y" x5 d3 D" O
若考虑土地、电网接入和许可周期,中东(特别是 UAE/沙特)在电力可得性和政府补贴方面往往优于欧洲,趋近美国甚至中国。
R# A5 I5 Y/ ^; K8 v/ L- C2.3 引入 GPU 后的全栈 CAPEX(以 400MW 集群为例)8 C9 v/ c" P. l! r/ g6 `% e+ u
以 ChinaTalk 的 400MW NVIDIA GB200 NVL72 集群为例[1]:& Y6 Q9 G- p: O+ M0 X/ M& M
9 n2 U1 W9 C/ O9 u2 |4 L
假设:PUE=1.11,电力侧 400MW,中约 360MW 投入 IT;
+ d3 C i9 l0 H% wGPU 配置:1 _& I0 u5 K) G J2 s1 p# D
有效 312MW 用于 GB200 NVL72,约可容纳 2,154 racks(每 rack 144 GPUs,对应功耗 ~145kW/rack);
5 T2 D4 i3 q ~ a/ \每 rack 成本 ≈ $3.0–3.35M[34][69];
4 o5 ]+ b, `" v/ K6 n4 fGPU 总 CAPEX ≈ $6.5–7.2B 量级(ChinaTalk 抽样约 $5.6B 略保守[1])。
4 s5 h2 c- S6 |与不同区域壳体+机电组合:5 X. a: Z# `7 H8 P3 q6 V2 j
% l% w9 v- Y, q5 g6 F& u) V
以中值估算:2 |) v: M- O- T# z j1 _
! g" k, N! T' _( p" H1 L
中国 400MW:壳体+机电 $2.4B + GPU $5.6B ≈ $8.0B
" s% p1 g1 q" k! C5 v( B美国 400MW:壳体+机电 $4.0B + GPU $5.6B ≈ $9.6B- O) |* v9 B% I
欧洲 400MW:壳体+机电 $4.5B + GPU $5.6B ≈ $10.1B& W3 P% L$ {0 U) a" h. o1 Q; L k
中东 400MW:壳体+机电 $2.4–2.8B + GPU $5.6B ≈ $8.0–8.4B& z- y* V0 r0 o8 P
可见:. E) w3 }' I: E( Q
: X. X( z* M3 b- N) a! b% t/ mGPU 成本在各区域大致相同,决定区域 CAPEX 差异的主要是壳体+机电与土地/电力接入。
# j0 N& O5 |6 Y. t相比美国/欧洲,中国和中东可在 400MW 级别节省约 $1.6–2.1B CAPEX,这对 IRR 有直接影响。
% e! F9 ]: {3 k# ?' o! n% C三、运营期成本结构与区域对比
# f$ |/ c7 W$ N$ j3.1 通用 OPEX 结构(高密 AI DC) W+ A" B9 w0 g
结合 ConstructElements、IEA、Microsoft/Google 披露[40][86][103][104]:& d* d2 F$ }. Q% A- O$ i
4 G% _$ V$ V; r2 n电力:约占总 OPEX 的 20–30%(传统 DC),对于 AI DC 因 GPU 负载密度提升,可达 30–40%。1 S9 |# } j$ d' v( a
冷却与水资源:9 n* T9 l7 v$ S, @7 \
能耗:传统风冷约占总功耗 30–40%[39];液体冷却可将 IT 与制冷合并大幅降 PUE 至 1.1 左右[29][115]。, k O) l7 D$ F2 |' {& C( r' \
水耗:典型 DC 约 1.9 L/kWh 水用量[105],每日用水可达 300,000–5,000,000 加仑 规模[100][101]。
/ L- m! y) M, U人工:视地区而定,在中国/印度/东南亚占比 5–10%,在美欧可达 15–20%。. L2 W" _9 Q- n! @# ]
托管/物业与维护:
/ E" `( n9 |- ]4 f1 X0 f: N3 R& c d3 `6 e托管:高密机架约 $1,500/机架/月,标准机架约 $600/月[40][28]; L+ c5 b8 F0 }
硬件维护:LenovoPress 模型中按设备价 12%/年[28]。
% ?# ?* D2 S/ O" U9 E2 y) _4 L' J3.2 区域差异(以 400MW / 3 年期为例)
/ x: C7 _0 i$ S# n5 m- h# D使用 ChinaTalk 的电费与人工估算[1]:
O. B( n' X- T
' b' H8 a1 d4 X% o- F1 w; C4 M; c- q( F电费(3 年) – 假设 GPU 利用率 60%,IT 360MW,PUE=1.11:+ K9 t* T5 m0 B1 L1 R; o
中国:约 $0.06/kWh → 3 年电费 ≈ $350M
( ?) a; R+ d0 `9 f美国:约 $0.09/kWh → 3 年电费 ≈ $600M
6 y9 x/ }$ Y. z- j中东:约 $0.07–0.10/kWh → $400–550M
) d- X- Y, O0 m2 L& }欧洲:约 $0.20/kWh 以上 → 电费 > $1B(显著劣势)- ~& f7 r% a6 |9 X9 a
水费(3 年) – 以 MS Fairwater 站点 280 万加仑/年为参照[1][103]:4 J( [. b8 Z- C* M% {
美国水价约 $5.18/千加仑,中国约 $2.57/千加仑[1]
S+ I. X' Y! h9 D5 T9 K, {三年水费级别:* W$ i) e5 J- n) z9 @- B
美国:$40k+
8 v& h0 Y! L) ~: ^& B% _中国:$20k+: ]9 y3 Y2 s2 h1 K: \! M3 m
结论:水费是数量级上可忽略的小项,真正的约束是水资源总量与选址,而非成本。
; c5 V' i+ x8 y2 |3 u! C+ x人员成本(3 年) – 假设 500 名全职运维:
% {. k0 ~3 f. p% @7 |3 U& h美国:500 × $120k × 3 = $180M+
r: |' b* ]1 Z/ g- V4 T) q中国:500 × $22k × 3 = $33M+8 T0 M2 G2 n+ y( ~* \( X
差异约 $150M,规模与 3 年电费差不多,是中美间第二大成本差异来源。
7 `1 m9 p% [) P; l' D2 C整体 OPEX 粗算(3 年) – 400MW 场景下:* K" i! h# L+ x/ X0 t5 v
9 n5 @# p) O. i
项目 中国 美国' C$ q- `. p# G9 e3 V/ m, N% y
电费 $350M $600M
& E1 S1 Q* v0 Y6 g4 ~4 I水费 <$0.05M <$0.05M
}% x# e2 R, a/ y: P% F$ l6 P人员 $33M $184M5 o( O9 H# I& x+ @) `
其他维护/托管 同比例估算,地区差异主要体现在人工与地价 + y4 D4 E6 D9 V" h0 `
结论:% q# W" c3 k( Y" M7 \
7 F% O3 y- H7 Y0 h% Q7 F( @* ?" Y( o就 3 年期而言,中国与中东在 电价+人工 两项合计可比美国/欧洲节省 数百百万美元级,与整体 CAPEX(数十亿美元)相比不算决定性,但对净现值和现金流有实质贡献。; A$ T* E! z" h+ l: s1 M" m3 z
对大模型服务商而言,更核心的是 GPU TCO 与 token 单价之间的剪刀差,而电价更多影响“边际利润率”而非“能不能赚钱”。
. e0 b9 j/ ~ ^+ H* O7 a四、基于 token 的成本与利润推演+ v o8 f8 Q5 \7 v
4.1 能源维度的 token 成本(题设 0.3 美元 vs 0.3 元)' j; T' s# e6 ~+ `
统一假设:6 z- L. J7 ]' w6 Q4 A& o" Q0 @
2 U: |# L8 w7 `! E典型大模型推理能耗:约 1 J/token(考虑 FP8/BF16 优化、Batch=256–512 时的能耗甜点[26][17][18])( E( q& q5 P" v# ^ D6 W) G6 Y, v
1J = 2.78×10⁻⁴ Wh → 每个 token 约 2.78×10⁻⁴ Wh! K" B( a8 m5 b2 F
1 百万 token:278 Wh = 0.278 kWh
# {' T2 ~" S+ d场景 A:美国电价 $0.30/kWh4 }! E/ h5 t3 U& B+ t7 h; c
电费/百万 token = 0.278 kWh × $0.30/kWh
( A$ o& o, g9 v4 O6 s6 b≈ $0.0834 / 百万 token
3 I1 a) P0 f' N" m+ `场景 B:中国电价 0.3 元/kWh ≈ $0.042/kWh
$ ~& m. y: J! e& h9 h4 G电费/百万 token = 0.278 kWh × $0.042( i' \% G, X- ~. Q" @2 J
≈ $0.0117 / 百万 token* f- v0 r( A, g7 L
对比当前 API 价格(OpenAI 2026Q1)[62]
4 w' m4 h: A" ?以输出侧为主(成本最敏感):; h- Z5 F( X, l% u
0 _0 U U n6 q) L
模型 输出价 ($/百万 token)
3 n- k( u! I4 sGPT‑5.2 $14
# A+ k& K( y/ K7 }2 v+ s; @GPT‑5.2 Pro $168
" j# v6 S" G' @3 K+ f9 V1 k* A& yGPT‑4.1 $8" a* l9 [5 B `7 @' E
GPT‑4o $106 \; q% D' w- q+ H
GPT‑4o mini $0.603 u6 y8 K% l& @) H# T. f$ u
则:+ i; [/ G- X9 h( M5 s# G
E7 q! J/ k0 D
在美国 $0.30/kWh 的极端高电价下,电费占 GPT‑4o mini 收入的 ~14%(0.083/0.60),占 GPT‑4o 仅 0.8% 左右。
+ ]4 S8 I- d5 i. Z' x+ h* _在中国 0.3 元/kWh 下,电费占 GPT‑4o mini 收入的 ~2%,占 GPT‑4o 的约 0.1%。
7 T2 D6 d" f8 h, e I$ O相比之下,GPU 折旧+云溢价+开发/运维成本才是主导。# F! T, F" ]3 o3 T
结论:3 A# j2 g8 a+ }8 R" U" e
即便在“美国 $0.30/kWh vs 中国 0.3 元/kWh” 的极端对比下,每百万 token 电力成本差异约 $0.07,与主流 API 价格($0.6–$168/百万 token)相比仍属“小数点后两位”的影响。区域电价主要调节“利润率边际”,而不会改变“项目能否盈利”的结论。0 [9 X2 p% I7 m4 B5 y: `3 I1 A
1 X6 @. Y" `/ ` V# i% `; B. T' B4.2 全成本 per token:自建集群视角(基于 LenovoPress TCO)% H# X6 N/ \# B# Q- i2 [4 z
以 LenovoPress 的 8×H100 Config A 为例[28]:
8 F" w) h& u: s8 [4 R) E8 U- n/ @- C; Z2 Y$ _
5 年摊销下,8×H100 本地推理 70B 模型:
% a' o# N7 s* p/ j% b" }& G( K小时综合成本(CapEx摊销+Opex):$12.08/h; m; j. T8 d- e* {1 t' j( g
吞吐:30,576 tokens/s → 每小时 ≈ 110M tokens
. u+ h' c, H. h* G& p a: i2 I! Y. Q成本/百万 token ≈ 12.08 / 110 ≈ $0.11/M token9 X; a5 ]: z% ?, r. |% }$ z
电费在其中的占比:- g9 L; Z) ~ M0 p c5 Y! A0 A3 i
Opex 6.37$/h 中电力+冷却约 $0.87/h[28]$ ?( j# f% t0 N4 }$ G) L; r# A
电费/百万 token ≈ 0.87 / 110 ≈ $0.0079/M token2 _; N, d$ @% `2 r3 q* r
电费占 总 token 成本 ~7% 左右。# m3 X2 q4 r5 q. ]7 [
若将美国电价从 ~$0.12/kWh 提高到 $0.30/kWh,则电费约增 2.5 倍,对总 token 成本影响约 +10–15%。
! _( C' E/ I' O# P若迁至中国西北 0.3 元/kWh 或中东低价长协,电费可再降 40–60%,总 token 成本再降低约 5–10%。
}* A2 T2 R+ ~1 b8 n# s0 o" Z& w/ [/ P, I
因此:% M# ~8 f0 p+ F8 Z" a
7 k: ?; o6 T1 p/ H5 y8 }( I Y
在自建集群场景下,电价对 token 成本有可见但非决定性的影响(变化量级在 ±10–20%)。" D) [4 h" C8 n. E r2 ^
在云租和 API 模式下,电价影响则被进一步摊薄,绝大多数利润被云厂商的溢价和 GPU 供应链吸走。5 a7 ~2 ^8 r8 W, Y! P2 a/ k# }! m
五、不同芯片方案的建设与运营成本对比
7 M* b9 e! ^: {8 l5.1 NVIDIA 方案(H100/H200/B200/GB200)
. p0 h6 G, `7 f8 ?CAPEX:
8 B8 R! F; y, w* O
1 ?& W- T; j7 l1 y4 y4 PH100:单卡市价 $25k–35k,8 卡服务器约 $250k+(Lenovo 配置价 $250k 左右)[9][28]。
5 ]& ~- n3 C) r) X: k( m9 j5 AH200:显存提升,单卡价更高,8 卡节点约 $280k[28]。
) |* ~9 }' ~4 _! e6 zB200:Blackwell 代 GPU,8 卡服务器约 $338k[28]。
! Z, P" _' d3 N/ KGB200 NVL72:
9 O( w% T8 T5 p5 t每 rack 带 72 GPU + 36 Grace CPU,售价约 $3.0–3.35M[34][69]。
R( R* W% Y, l& U2 V4 s冷却系统每 rack 额外 $50–56k[35]。; P3 t6 K, {$ ^4 O' C
在 400MW 场景中,GPU 总 CAPEX 约 $5.6–7B,占总体 CAPEX 近 40%。
, O3 o% R' K! Y9 QOPEX & 能效:' H/ J+ l# `" f& O
2 j8 m: g& o" K! a单 GPU 功耗:
z8 |( O q; q! O JH100:TDP 700W;集群实际单 GPU 含服务器/网络开销可到 ~1,500W[16]。
5 ]* Q, Q4 K% k! p3 D- ^7 O2 ]H200:功耗类似或稍高,但性能/W 提升[9][10]。! K7 K8 A, X& w% f7 C
B200:标称 1,000W TDP,但实测约 600W 左右[68][69]。5 x9 F: X+ y9 A: B
Token 性能:
& I' G6 Y( L$ N" V( n$ ?B200:官方推理基准中,可达 60,000 tokens/s/GPU 级别(gpt‑类模型)[68]。
; @1 `0 X# s; P1 L/ W9 j" }NVIDIA 的优势:
0 I- u2 g7 g7 F/ q. x! h1 @- m9 A* J+ O; v% ~) d; l/ h
软件栈成熟(CUDA/TensorRT‑LLM),易于榨干硬件性能,batch 与多 GPU 并行调度成熟 → 在同等 PUE 与模型条件下可达更高 tokens per Watt。 B. O2 k* s6 D% V C' G) o+ c
但硬件价格与毛利极高,从 TCO 角度,“谁买单 GPU 溢价”是关键——云厂商多半将成本转嫁给 API 用户。
; \2 s* n/ Q8 H5 j5.2 Google TPU 方案
J, u0 m# \ o- O% v" p C# D& XCAPEX:
2 Z$ r- j4 a1 @, \
4 j( e9 U% ?3 R0 x: X& L* d单 TPU v4 定价约 $3.22/芯片小时,v5/v6 在云端按实例小时定价对外[52][54]。0 N" N4 R( a: C) [9 _
GSR 估算:TPU 的出厂 ASP 约 $4,500–5,000/片(Google 内部成本)[54]。2 o' D4 f: s ?) B( v
8 TPU v5e 实例约 $11/h,而 8×H100 云价可高达该数值的 5–10 倍[52][54]。5 _2 `' r% W1 f, ] g* x+ g
能效:
6 X% ]" K$ b0 d# K5 d9 n6 B n0 c
TPU v5e vs H100:
1 }- W3 N( I" S1 z9 b( C, N同级推理场景下,8×TPU v5e ≈ 2,175 tokens/s(Llama2‑70B,INT8)[67],H100 需更高功耗才能匹配。 q8 E. m0 u) k8 I9 O5 ]
测试表明 v5e 功耗约为 H100 的 1/5 左右[67][52]。8 F3 v# k0 P4 O; d) f' c
新一代 Trillium/TPU v7:# A1 L s7 D& Q, _/ B R- B
能效比 TPU v5p 提升 ~67%,对 H200 或 B200 整体上能实现 2–3×性能/W 优势[52][65]。
" e# S' @! Z' d7 Z$ w6 ?* TGoogle 方案的特点:" D) k6 P0 |# i( x" c
3 q0 L) c9 H' ]* p. l9 ]* r7 G自用闭环——Google Cloud + TPU + Gemini,利润来自整体云栈,而非单个芯片;
; |# i6 w. O, t+ e+ P. t对外公布的 API 价格较为激进,TPU 方案在 tokens/W 与 tokens/$ 上具有显著优势,尤其在内部工作负载。& v0 t8 E6 M; e0 n+ S
5.3 华为昇腾 910B / 910C 方案3 S1 E6 k. O& J# L# T# K3 G5 u) o
CAPEX:
Q5 V! M7 T) l' n. ~+ r* l7 C, D$ A- H: ~6 R# J% w/ [( N2 n b
单 910B 芯片成本约 50,000 元人民币 ≈ $7k[60];910C 约 110,000 元[60]。
2 w8 J. X: c, s- e与 A100 对比:
$ f2 e" i+ z, c. N9 w0 v- [FP16 算力 320–376 TFLOPS,功耗 310W,性能接近甚至略高于 A100(400W)[80][81][82]。1 G: N, Q( S3 z( x+ P7 Q
市场报道中,NVIDIA H20 在中国售价约 10 万元/片,而 910B 更便宜 30–40%[61][72]。1 Z* x; {2 d- {* y" f, j4 B
使用昇腾构建类似 400MW 级别集群,总 GPU CAPEX 相较 NVIDIA 可节省 30–60%,视集群规模与供货条件而定。
G/ Q& H$ N( v; mOPEX & 能效:
3 L3 Z* v' A! D" X1 K1 }5 ?. w: ?# t$ }" G* M" s2 x. s4 k* ^
910B 功耗 310W,FP16 320–376 TFLOPS → 性能/W 与 A100/H20 接近或更优[80][81][82]。5 {$ `% k) S( f
部分推理 benchmark 显示,长上下文(>4k token)推理时,910B 在 tokens-per-watt 上可超过 H200[71]。
8 u# P. ?6 w( t0 L0 a& C6 T1 ^4 v在中国电价(0.3–0.4 元/kWh)环境下,昇腾方案在 TCO/tokens 维度有明显优势,但生态与软件栈仍在追赶 CUDA。
0 ^- V8 w( @! }- e8 }" G/ f5.4 平头哥真武 810E(PPU)方案4 Q) |& a, f9 u
CAPEX:7 Q5 A# |' W( A# ?: h% D
6 H6 r2 G0 A( _. |
技术参数:
$ u, ]# R$ h; T( H/ ]3 X( M1 g- q96GB HBM2e,片间互联带宽 700GB/s,自研 ICN 互联,PCIe 5.0 ×16,400W 功耗级别[59][102][111]。
2 M# R- B. q1 {7 H4 l/ o$ g- I& M性能:官方宣称整体性能超过 A800 与主流国产 GPU,与 NVIDIA H20 大致相当,升级代际可逼近/超过 A100[59][110]。
# @* s9 N8 |( l M价格:
4 k2 S, [! \/ P" t未公开详细单价;多个媒体报道指出“单位算力成本可下降 ~40%”,与英伟达 H20 有 3–4 成价差[74][112]。
" A; U% n( `8 G7 ~+ N6 X3 X结合国内报道:
" K$ ^3 f8 X( H, H9 Y7 L0 D Y2025 年出货量数十万片,已在阿里云实现多个万卡集群部署,服务 400+ 客户[59][111]。
+ D" C7 S4 o: B6 b数量规模与生态成熟度迅速提升,使得 真武+昇腾 成为中国公有云/算力租赁的主力基础。
9 _% Y1 G9 L( O, S, o3 j+ L& l+ lOPEX & 能效:
2 D& Q) w9 n! d* a7 \) G S! ^8 b+ @* M1 |$ G- |
400W TDP、96GB HBM2e,使其在 高上下文、RAG、大模型训练+推理一体化场景 中具有良好性能/能效平衡;5 U" V$ h3 |7 {- c& f- V
在中国低电价 + 低人工成本环境下,真武方案可将 AI 推理服务的综合 token 成本进一步压缩 —— 对标 NVIDIA H20,本地算力提供商可在保持 ~8–9 成性能的前提下降价 30–40% 仍保持毛利[74][112]。4 J9 O0 x7 @2 w+ M, m/ a
六、综合比较与策略建议9 L7 \9 f. H3 Q! T
6.1 区域维度:在哪里建 AI 数据中心?
; R9 t; o+ c8 c/ P$ {0 ^纯经济性(TCO/tokens)排序(假设无政策/合规约束):9 P) M0 E9 ?' z7 Q% K6 i
; n+ d* h& s% `5 P S) M中国西部/北部(电价低、人力低、建设成本低)7 U; |0 v: a2 X6 ?) I* [
中东(UAE/沙特)(电价中等偏低、土地与电力可得性好、政策支持)
/ t1 I+ S: n1 U$ ~. I7 z3 O美国电价低但人工高;东海岸/加州电价上涨压力大
( r' A) q5 L9 F欧洲电价高、审批严格,但接近高价值企业客户和数据主权要求
! }4 o1 W9 s" \& l8 z若以“美国 $0.30/kWh vs 中国 0.3 元/kWh”极端场景比较:
, B" F/ l0 r. b/ j5 _
1 U4 x1 [* d7 R& R+ v* w纯电费/百万 token 差异:约 $0.083 vs $0.012 → 差别 ~$0.07/M tokens;6 V& D ^) d! R' O9 [8 i' @
对比 API 价格:差异对整体利润率的影响远小于是否使用 NVIDIA vs 国产芯片、自建 vs 云租的差异;1 S- _# ?+ A! I7 |3 r, O
但在极高利用率的 自建超级集群 场景,电价仍然能在 5 年 TCO 上带来 10–20% 的边际优化,是选址决策的重要考虑。
! o+ R. I) s% e/ w& X* K6.2 技术栈维度:选哪家芯片/云栈?- f5 W5 V) U9 S8 P% i
若目标是全球最优 tokens/$ 且不受出口管制:6 W1 r7 Z! O: G; Q
0 }8 n2 h! y9 n; h% xGoogle TPU v7/Trillium + 自建 on-prem:性能/能效与成本的综合最优,但前提是可以直接获得 TPU 硬件与软件栈授权(现实中仅限 Google 内部和极少数大客户)。
) T( _9 \; S. j+ D* u' f5 C- D若在美国/欧洲,能自由采购 NVIDIA:
. o6 \6 \: r- ]7 d( N3 v3 M' m- L' }' I# K r* [$ i2 N9 ?
短中期内,NVIDIA B200/GB200 NVL72 仍是最佳实践:6 n6 n- Y) H, W
成熟的软件栈与生态,极高的 tokens/s/GPU;
2 N& h( J! w0 j$ \0 \) F9 {在云厂商/超大规模自建模式下,配合液冷与 PUE~1.1,可取得较低的 token 成本;* M' g! B6 G" r& ?9 o4 e" e* d
但要谨慎评估 GPU CAPEX≈总投资 40% 的集中风险。7 b; ]) L. [1 n8 i6 n
若在中国或存在出口管制约束:
$ w5 d3 _1 a0 f* C8 F/ j+ H" J" ]5 G
昇腾 910B/910C + 平头哥真武 810E 是现实可行的主力组合:1 \+ K' o, Z4 L+ W
性能上已能覆盖大部分 GPT‑4 类推理需求;
- T: W- |$ o1 h3 @# p$ K m单片成本显著低于 H20/H100,集群 CAPEX 明显更友好;; V% A: Z, Y$ {" D' i
软硬件全栈国产(CANN + MindSpore + 通义/Qwen 等),可避免制裁风险;) n E3 o9 ]3 a
建议配合:+ ?$ s; P+ a, s: Z, x
高效液冷(PUE~1.1)、3 t( V4 D7 X* W& C4 c7 O/ D
大 batch、路由(浅层任务走小模型/低成本芯片)、+ ]1 P& U4 {* ^# [
强量化(FP8/INT4)与分层缓存策略,进一步摊薄 token 成本。4 t5 e! ]4 L8 ~6 J6 B/ ] N0 Y
长远看,“tokens-per-watt / PCE” 取代单纯 PUE/FLOPS 成为核心 KPI:1 C, o8 A( y" K$ Q6 X! f* N
8 k& J* ~) B5 P& U2 M6 K数据中心运营者应从“PUE 1.5→1.1”的设施思维,转向“每瓦输出多少有价值 token”的AI 工厂思维[29][118];
$ k. r& W& W8 Q& d& ~7 v+ Q这意味着:- F8 W) m- X4 M
优先选择 更高 tokens/J 的芯片架构(例如 TPU v7、B200、后续国产芯片);
' ?# k9 I7 u) d) V% v精细化调优 batch size、路由策略、CoT 深度,将“energy-per-token”作为最优先指标来优化[17][26]。
( E9 ]1 X) l( e" {7 |+ E6.3 针对你关心的具体问题的简要回答9 w5 }2 f- U2 T8 K. r. ^ _
AI 数据中心建设 vs 运营成本的大体比例?
- I" V$ e! a8 i
2 f" ?4 n5 h2 s+ n) g9 H在 5 年期 TCO 视角下,CAPEX(尤其 GPU)约占总成本 50–70%,运营成本(电力+冷却+人工+维护)约 30–50%。
* Y. U( n/ N) v, }6 r其中 GPU 自身 CAPEX 占到总 CAPEX 的 30–40%[36]。
z* n/ ?; |4 t2 t' G中国、美国、欧洲、中东的成本结构区别? M- a/ e7 [9 v: q9 o
5 _$ H% C) x, v4 Y" i) v- [8 z% b0 t建设期:
/ Q5 n, g2 ?1 T+ R2 S) f中国/中东的壳体+机电成本明显低于美欧(约 5–7 vs 8–12 vs 10–11M $/MW)[1][2][20]。# J3 U. |0 @* q( O, {& ]
运营期:
, b! [. ~% f9 B+ `电价:中东 ≈ 中国西部 < 美国平均 < 欧洲# r) V: G3 ]( A2 k' }
人工:中 国 ≪ 美 欧,中东居中。
& Z7 ~7 u) s( r& @0 C. W4 w, G在美国 $0.3/kWh 与中国 0.3 元/kWh 下 token 成本与利润率?, y% S1 S/ _; E% Z( w* g+ c
f: n; ]4 p+ \+ t2 @. Z' c对于典型 1 J/token 推理负载:0 N3 a% b2 D: a ^: g
美国 $0.30/kWh:电费约 $0.083/M token4 Z- c/ J3 K, p% B
中国 0.3 元/kWh:电费约 $0.012/M token5 R9 D* q" I4 M: f; X% d R
对比 OpenAI 等对外价格($0.6–168/M token),电费无论在中国还是美国都只是利润表里的“小头”,主导因素是 GPU TCO 和平台溢价。0 V Y+ K' C3 ?1 b! G
不同技术方案(NVIDIA / Google / 昇腾 / 平头哥)的建设与运营成本谁更有利?
+ e9 ?1 H1 d/ n5 v' n5 i% n+ Z5 n
在可获得 TPU 的前提下:Google TPU v7 在 tokens/W 和 tokens/$ 上最优;
5 b' Y. K" P D. ]5 {全球通用方案:NVIDIA Blackwell 全家桶(B200/GB200)+ 液冷,但 CAPEX 巨大;9 ]2 |2 |* ?% f1 _9 U4 q) N4 k
中国/被管制市场:昇腾 + 真武 是当前最有经济性与可持续性的路线,综合来看能把 token 成本压到 NVIDIA 方案的 40–70%。 |
评分
-
查看全部评分
|