爱吱声

标题: 我来说一个AI鬼故事,保真保新 [打印本页]

作者: 大黑蚊子    时间: 2026-2-26 16:45
标题: 我来说一个AI鬼故事,保真保新
这个是我刚刚想到的- N6 J9 T) C* N  S8 {( Y
该鬼故事言简意赅,逻辑严密,绝对比神牛@holycow 之前说的那个AI鬼故事可能性高得多
, Z0 h! f, r9 v( }神牛版的鬼故事链接在此
% Y& _$ p2 B% n, w( u1 l
+ P5 `/ P2 U# b) ]( t0 D7 t=========我们开始=======
/ X/ ]4 w% L0 G5 ?% F5 C% i
3 e* m: c9 Z. c' Q9 A. `( {已知
6 i# B3 e- ?% N% X& K5 t
4 j6 Y  d+ L) E中国对美国的电力基础设施和可靠性供应方面有现实的碾压状态) s4 j! U, Z; d" s4 O2 r2 {' ^

/ U4 O& Q7 U) m+ x) c. V在用电成本和基础设施建设效率方面也有碾压优势
1 k( }9 V1 y" h4 v2 l! o# b
& S: u+ l6 f0 x4 M假设
9 U' V5 Y# n( n+ B" u- o8 d2 i0 G8 ~, y! f# i; n
最终美国AI和中国AI拉不开差距(我理解这个应该是大概率事件,毕竟搞AI的主要是中国的中国人和美国的中国人)
$ U! u, ~# T8 Y* e
7 a" D  Z3 f) q$ ?5 l% @4 P8 N: Y在这个基础上,你在美国问美国AI一个问题需要消耗1度电,在美国问中国AI一个问题大概率也是1度电+ Q% p# ]; {0 y! l& {' T

& N% j6 M0 X% P& U4 E9 C  r, z那么在美国生产Token的成本,毛估估起码是在中国的10倍! W3 O! e9 i3 W+ C9 W& i
' ]; }9 \5 q$ J
在这个状态下,美国四大服务商(Oracle、MS、AWS、Google)的现有所有投资假设都会被推翻
8 w7 v% j5 z0 P0 G& M. `* \* V! J5 `* \9 C# @
因为没有人会顶着十倍成本差距在没有技术代差的自由市场竞争里活下来
( ^0 j2 I0 A2 L; M$ k" q# _' y- @  s7 H$ E' N3 @3 ]
这会导致美国所有现阶段及预期的投资都会打水漂3 |% P( E0 B. q) Z' ^$ i; c/ k
% q# W0 R' O; H' H+ I
除非! C# Y! S# t9 M+ [2 Z
- u! b3 x  R  G" a' Z
美国人开始搞GFW,禁止北美市场使用中国产Token...2 J( [3 a! i. `& @" z. d

; h; L9 n9 n) R8 T( r$ `但话说回来,不是我看不起美国人,论GFW这玩意儿,还得是中国人强
作者: 大黑蚊子    时间: 2026-2-26 21:43
后来想了想,我让龙虾爬了一个分析全球AI数据中心建设和运营成本的报告,内容如下:. O- [! L, D3 ]. \. D$ H" o  f

4 T0 X& y6 o" r  u/ A: T8 K: g% C1 [2 d- \; `一、总体分析框架与核心结论
& T3 _$ N% O) N4 |- y+ r# `, F! A; M1.1 分析框架概览- I$ D( K3 d6 B) x, a
拆分维度
2 G" B* j( ]: q! |2 s: V7 s
. Z+ z) s9 E" K7 N阶段:
& H5 c& O' [1 O* n" r6 `- B建设期(CAPEX):土地/建筑、供电与配电、制冷、IT 硬件(GPU/TPU/加速卡)、网络与其他基础设施' U3 q3 U# j3 X0 _7 t' p5 @6 x7 x
运营期(OPEX):电力、水、运维人员、场地/托管、维护与更新、网络带宽等
5 c6 r6 B; _& R) q$ Q+ X, ?区域:0 F) w# U* @- {* h& `$ M, K
中国、美国、欧洲、中东(以海湾地区/UAE 为代表)
' L; w  {+ m  m! Z; A, H4 Z技术方案:
) d+ c& O2 t1 G. i+ h9 k9 ~NVIDIA(H100 / H200 / B200 / GB200 NVL72 等). F0 K  d4 ^, J( U7 R
Google TPU(v5e/v5p/Trillium 等)
( X3 L8 p$ U+ K' u. t4 H中国芯片:华为昇腾 910B / 910C 系列、阿里平头哥真武 810E(PPU)
) R/ Y7 x* K4 R# Z' B算例基准
! @7 y5 [1 }  N; `+ j2 L! W  B" K0 |4 M* u5 I9 X
以400 MW 级 AI 数据中心为统一标尺(与 ChinaTalk BOTEC 分析保持一致)[1]:
* D  e- I0 D8 ?8 A& i! h% i" l. q其中 IT 有效功率约 360 MW:GPU/AI 加速约 312 MW,CPU/存储约 48 MW. C% r) h0 b' z
PUE 假设约 1.11(高效液冷场景)[1][29]" q' e& h% J" e2 H' A% |8 h6 E. `
时间窗口:3–5 年运营期(与行业 TCO 分析和硬件折旧相匹配)[28]# B3 {# n- ]; E& o, e
关键指标! ?/ b! }4 {0 I3 i
4 H3 `$ F6 N' t* Q# p6 G
$/MW 建设成本(含/不含 IT 硬件). ^" l! @! i- Y* G' K( T6 n
$/kWh 电力成本、L/kWh 水耗
9 K, u3 ]1 [$ Q$/token 或 $/百万 token 的综合成本% w, b) h! C+ p, V
Token-per-watt / Joule-per-token 作为能效基准[17][18][26], Y+ G4 C% e' B9 l3 R: Q" J
项目 IRR/回收期、吨位级 TCO 对比(自建 vs. 云租)/ d( B5 X# Q; d: E. W
1.2 高层结论(供决策快速参考)
1 ^; O$ M0 e3 n2 J建设成本:AI 数据中心相对传统云数据中心成本翻倍, M2 Y( `  c4 H% p/ c2 B# E! h* t
/ N. X9 F* M+ r
传统云数据中心壳体+机电平均约 $10.7M/MW (2025),预计 2026 升至约 $11.3M/MW[2][41]。
) N1 R7 ]7 f4 J( n" ]2 G* q% E1 QAI 优化数据中心(高功率密度 + 液冷)壳体+机电可高达 $20M/MW 甚至更高[41]。+ I4 J- ?5 N6 I' J9 b( S0 z+ }
按 Accenture/Soben 研究,传统云 DC 为 $8–10M/MW,而 GW 级 AI 数据中心可达 $17M/MW(仅壳体+机电,不含 GPU)[3]。
2 ?6 B) K* [5 ?! N区域 CAPEX:中东≈中国 < 美国≈欧洲 < 高端 AI 园区
& v/ j3 ^. H8 j/ j/ {. ^
4 g$ c0 m  D0 I2 s* e- l中国:$5.5–6.5M/MW,400 MW 约 $2.4B[1][13]; R5 Z  Z$ f! B
美国:$8–12M/MW,400 MW 约 $4.0B[1]" B' W0 A: D  P1 s& k& v
欧洲:接近全球平均 $10.7–11.3M/MW[2][41]
- R/ @. O9 n3 V中东(UAE Stargate 5 GW):总投资超 $30B,约 ≥$6M/MW[20]. @/ {. F/ r  Q% p! c
结论:中国与中东的壳体+机电 CAPEX 明显低于美国/欧洲,同等规模下节省约 30–40% 构筑成本。​8 v1 b) a) v4 y  R/ f, n1 ^. t
OPEX:电价与人工决定区域优势
! a/ u6 A' T. y' o, N. A
% y; h0 ~" ^) d9 J电价(2025–2026 工商业大致区间):
' Y) m/ r' B9 M' v. T中国:约 0.8–1.1 元/kWh ≈ $0.08–0.11/kWh,部分算力基地可通过长协拿到 ≈3 美分/kWh[12][73]8 u# Q8 B/ D' ~3 R9 W5 i
美国:工业用电约 $0.085–0.09/kWh[44]+ e) l( y" r- T& o9 B" p3 }  M
欧洲:非居民平均 €0.19/kWh ≈ $0.20+/kWh[45]; `2 f+ t9 Z4 q/ W6 g, o' t
中东/UAE:工业用户 $0.07–0.13/kWh[47]0 m, I1 I6 A) e& h" ]9 E5 ^* f  \& L
人工:7 U+ O- d9 ]" J. f0 ]6 }
中国数据中心运维:约 $22k/人/年0 v5 W, ]3 U1 Z1 O
美国数据中心运维:约 $120k/人/年[1]
7 U' B2 \# f5 f: l8 ~, n8 w结论:电价上中国西部/北部与中东有显著优势,人工成本上中国远低于美欧。​
7 N4 k1 I! f& P8 f4 _% c" W; P1 t能耗与每 token 能源成本:能效差异远大于电价差异
9 }3 |: e8 D0 f8 c, g$ X  V& j0 y" z
IEA:2022 全球 DC+AI+加密耗电 460TWh,2026 可能至 620–1050TWh[86][90];AI 专用服务器约 90TWh 量级[30][90]。4 |' p) T5 H$ V3 e9 F
大规模 LLM 推理能耗估算:H100 集群训练 GPT-3 175B 约 2.46–3.63 J/token(训练)​[10][16];经推理优化后,Inference 端典型可做到 0.4–1.0 J/token 级别[17][26]。2 m; J8 H" W2 U
将 token 能耗约化为统一口径:8 M- R& ^% _' e* m' P! v1 |
粗略取 1 J/token = 2.78×10⁻⁴ Wh/token。若电价为:
0 L) j1 _; r3 Y中国 0.3 元/kWh ≈ $0.042/kWh:电费 ≈ 1.17×10⁻⁸ $/token ≈ $0.0117/百万 token' {) P9 q8 p6 p/ u( v& r8 o
美国 $0.30/kWh(题设):电费 ≈ 8.34×10⁻⁸ $/token ≈ $0.0834/百万 token
8 V! i% _4 C% E# G; R8 Z4 p' _1 C对比:OpenAI GPT‑4.1 / GPT‑5.2 系列对外 API 输出侧价格 $8–168/百万 token[62],电费占比 远低于 1%,真正决定成本差异的是硬件 TCO 和利用率,而非电价本身。* F. G5 u. o( q- {: ]
不同芯片方案的核心差异! ?- N5 z1 }3 A" Y

! y6 ?1 n+ j6 m: yNVIDIA Blackwell/B200 & GB200 NVL72:+ x* Y" w: u$ m6 [3 p8 ?- R5 Z
单 B200 GPU 峰值 ~4.5 PFLOPS FP4/FP8,功耗 600–1000W[68][69]。
9 a' z4 O) h( }7 ~% h' C: xGB200 NVL72 整机架售价约 $3.0–3.35M,72 GPU[34][69],GPU 约占整个 AI 数据中心总 CAPEX 的 39% 左右[36]。
3 |! n4 [0 B' E/ y) x, aGoogle TPU v5e/v5p/Trillium:
# h. @* `9 q: D+ ~4 G8 ~4 _  g( ?TPU v5e 8 芯推理:约 2,175 tokens/s(Llama2‑70B,INT8)[67];功耗显著低于 H100,同负载下能耗可降约 5 倍[67][52]。
+ D' S! i! `6 ~  wGoogle 内部披露 TPU v5 能效约为 H200 的 1.46×,Trillium/TPU v7 更高(约 2× 甚至以上)[52][65]。6 U, Z+ h; ~$ m. W1 {
华为昇腾 910B:& s3 N) `& e4 i- o$ ?$ J
FP16 算力 320–376 TFLOPS,INT8 640 TOPS,TDP ≈ 310W[80][81][82];能效接近甚至超过 A100,在长序列推理上 token-per-watt 可超 H200[71]。
/ l4 Q7 ~' n7 |8 o1 Q单芯片成本约 5 万元人民币 ≈ $7k[60],显著低于受限版本 H20/H100。
' c5 S* @$ h) V, c5 L阿里平头哥真武 810E(Zhenwu PPU):
9 R, `. @5 H1 \9 T) e96GB HBM2e、700 GB/s 互联带宽[59][111],功耗约 400W 级别[102],整体性能对标 NVIDIA H20/A800,并已形成万卡集群部署[59][111]。
7 i% c8 g" n( c7 S  S% u结论:
" T6 t9 w- \5 H/ p: m9 w: Q能效(tokens/J 或 tokens/W)排序大致为:Google TPU v7/Trillium > NVIDIA B200/GB200 > TPU v5e/H200 ≈ 华为 910B ≈ 阿里真武 > H100/A100。  y! T- F, X; X. Q3 v4 E3 f
单芯片/整机价格排序:华为/平头哥 < TPU 自用成本(Google 内部) < NVIDIA 公版(H100/B200/GB200)​。
1 y1 e  C4 z: D# b对中国市场,在算力性能足够的前提下,昇腾 + 真武 方案的 CapEx/每 token 成本有 30–60% 的价格优势。
4 n7 @6 |' @7 n0 U  n& K6 ~自建 vs 云租的 TCO 与 token 成本! M1 w9 W* ]% ?* t) U

4 m7 j7 r- r6 b% _LenovoPress 对 8×H100/H200/B200/B300 本地 vs AWS/Azure/GCP 的 5 年 TCO 对比[28]:
  {) d& N0 t% E$ h( V8×B300(Config D)自建 5 年 TCO ≈ $1.01M;/ |: _1 r& ^+ L9 q
等价 AWS p6‑b300.48xlarge(24/7)5 年 ≈ $6.24M,节省 83.8%。% H- y! a; p  j! M0 `
8×H100(Config A)自建对 Azure On‑Demand,回本点约 2,720 小时(~3.7 个月)​,对 1/3/5 年保留分别约 4,423/6,800/7,591 小时(~6/9.3/10.4 月)[28]。* B% D! v. G, ^+ v9 q0 V( J
Token 成本对比示例(LenovoPress 场景)[28]:
  g( x8 S8 {( C4 {: F& Z) \- gLlama‑70B 推理,8×H100 本地:约 $0.11/百万 token6 L. p$ X; D2 h' W. d7 L( F8 A! r/ P
vs Azure H100 On‑Demand:$0.89/百万 token → 自建 ~8× 便宜。
5 w' [+ v# ]% D  ?; @同样 70B 模型,自建 vs GPT‑5 mini API(约 $2/百万 token):自建便宜约 18×。& ]- p% w/ C" v" Y: F* v$ N' v
Llama‑405B,8×B300 自建:$4.74/百万 token,AWS B300 On‑Demand:$29.09/百万 token → 节省 ~84%。
4 `" L0 n( v* v' W结论:7 }4 I' A8 l3 @+ J9 T% J7 p- r
高利用率、长周期推理负载下,自建 AI 数据中心的每百万 token 成本可比公有云或高端闭源 API 低 1–2 个数量级。8 L0 t& Q6 s$ U5 f, w2 I( C
Token 电费占比极低,自建 vs 云租的差异几乎全部来自 硬件折旧 + 云溢价 + 运维与利用率。
) ^& b- F/ ]" b% L二、建设期成本分布:区域对比- E8 c! }; Q5 |- e: U( v' T; B9 q
以下重点讨论 壳体+机电(不含 GPU)​ 与 全栈(含 GPU)​ 两层。
4 V0 ~2 t7 A  U
* @1 z$ S; P, \) j% H# Y2.1 全球/通用结构(以 1 MW 为单位)
  ]3 H: i, R7 A% r" p  }. h9 l/ _综合 JLL、ConstructElements 等[2][41][40]:& q3 [: L5 d+ y# F2 Q

, r9 E1 ]) Z% K% g壳体+机电(Shell & Core)​
1 l9 n6 j; C3 \3 B9 {+ }6 [$ p, z1 ]! n( R
全球传统 DC 平均(2025):$10.7M/MW,2026 约 $11.3M/MW[2][41]1 P# p* Q* |; O9 A" E* t
其中按成本构成[40]:: |% \  ~* g) ]% K3 U. G+ Q
电力系统(变电、配电、UPS、母线等):40–50%
4 ?! S1 ~+ ^1 M! l0 g& f& j, U机械与冷却(冷机、冷却塔、管路、CRAC/液冷):15–20%9 P: g; h5 H) ?
建筑与土地、结构:约 15–20%
9 o4 r) S* v3 s2 E/ }/ `其他(消防、安防、楼宇管理等):约 10–15%7 z! b; O* @( ]
IT 内装与 AI 基础设施(不含芯片)​
3 k6 s9 F3 x  y9 m, v5 |0 Z) E' Q* P. \7 m, u& T
高密 AI 集群内部装修(高密布线、机架、液冷板/浸没舱等)会在每 MW 额外增加 $25M/MW 量级[40],对 GW 级园区影响巨大。
) u9 V5 I4 k9 r; \1 nGPU/加速卡硬件 CAPEX
- e/ d' s! |# L/ p* s9 H0 W) @$ X# e5 s+ H$ ~
多数分析认为 GPU 占 AI 数据中心总 CAPEX 的 30–40%,其中 NVIDIA 单家毛利约等于整个行业 CAPEX 的近三成[36]。6 E3 S7 U# [( \6 W7 K" {& [; }3 G
2.2 中国 vs 美国 vs 欧洲 vs 中东:1 MW 建设 CAPEX
4 {8 u" R9 p3 L' ~7 F+ y* Q6 m结合 ChinaTalk、JLL、UAE Stargate 等[1][2][20][13](仅壳体+机电):
# h0 ~; i: _6 v0 d3 y  T2 c0 ]
1 f. E! D* W4 V5 N, A3 Y区域        典型建设成本(壳体+机电,$M/MW)        备注0 P, M$ f& C# Z& O; \2 u/ r# ]
中国        $5.5–6.5M/MW        以西部算力基地为主,400MW ~ $2.4B[1][13]7 c* k" @% Y7 @5 w  R
美国        $8–12M/MW        典型超大算力园区 400MW ~ $4.0B[1]1 M$ M9 U' M8 q# M1 n  |+ n
欧洲        $10.7–11.3M/MW        接近全球平均,部分核心城市更高[2][41]3 X( P) Z. q# E
中东        ≥$6M/MW        UAE 5GW Stargate >$30B → ≥$6M/MW[20]6 J8 A) B* q, S- U0 t& |% ?+ D
结论:​
, V" b1 g. M7 ?; \, u$ v8 {3 d1 d. ^; u* j* f3 ?$ d
单位 MW 壳体+机电 CAPEX:中国 ≈ 中东 < 美国 < 欧洲。
$ N; Q5 h% W- z( ~+ @5 k) n9 y; c若考虑土地、电网接入和许可周期,中东(特别是 UAE/沙特)在电力可得性和政府补贴方面往往优于欧洲,趋近美国甚至中国。
5 u. T5 s1 E& Q2 _0 Y2.3 引入 GPU 后的全栈 CAPEX(以 400MW 集群为例)
! ?$ M7 c$ Q% R# }, R以 ChinaTalk 的 400MW NVIDIA GB200 NVL72 集群为例[1]:( y- {( Z9 B4 S3 u& Q/ m0 {7 w
, |: m  }' D7 Z# l5 m
假设:PUE=1.11,电力侧 400MW,中约 360MW 投入 IT;
/ Q9 `. @* V# p/ C, ^0 NGPU 配置:
* m/ s! p% t' t% z7 V) A, ]. a* @有效 312MW 用于 GB200 NVL72,约可容纳 2,154 racks(每 rack 144 GPUs,对应功耗 ~145kW/rack);
* a0 \4 d6 v# U) f5 ^: z每 rack 成本 ≈ $3.0–3.35M[34][69];
# x. w! s6 m0 R. @GPU 总 CAPEX ≈ $6.5–7.2B 量级(ChinaTalk 抽样约 $5.6B 略保守[1])。4 c7 T+ w1 G; v2 h9 V/ \5 Y9 D
与不同区域壳体+机电组合:​" v2 i( z) I+ A+ \  H) C5 Z+ @

( k* z3 \8 c: T( W! ~以中值估算:& ]" k( N- j' [( u

0 [& j  K9 a  u) x. A+ l' `中国 400MW:壳体+机电 $2.4B + GPU $5.6B ≈ $8.0B' y: E, N1 z6 b* I
美国 400MW:壳体+机电 $4.0B + GPU $5.6B ≈ $9.6B8 W  ?; K' K& X9 q3 I" l, J; ?
欧洲 400MW:壳体+机电 $4.5B + GPU $5.6B ≈ $10.1B2 W! k) X- I/ R4 l8 _; Z1 j
中东 400MW:壳体+机电 $2.4–2.8B + GPU $5.6B ≈ $8.0–8.4B" Z3 z: m" J- A
可见:
0 R( v; k: Z1 s& A4 B' [; e3 V
' @* N1 m) E: }1 f6 XGPU 成本在各区域大致相同,决定区域 CAPEX 差异的主要是壳体+机电与土地/电力接入。​
0 h. ]9 _# A& ?* a! ~, ~! D9 _相比美国/欧洲,中国和中东可在 400MW 级别节省约 $1.6–2.1B CAPEX,这对 IRR 有直接影响。
6 Z6 U+ q' Y9 z+ E( r三、运营期成本结构与区域对比
3 m; {0 D4 F1 ]2 J3 s! r3.1 通用 OPEX 结构(高密 AI DC)4 D) _2 e9 A. u
结合 ConstructElements、IEA、Microsoft/Google 披露[40][86][103][104]:, S# U5 X7 [/ v
  ?. I0 i, Y: T
电力:约占总 OPEX 的 20–30%(传统 DC),对于 AI DC 因 GPU 负载密度提升,可达 30–40%。' E$ ?; ^6 |. |% E; a8 N' J1 \
冷却与水资源:' z# i5 F+ `0 P
能耗:传统风冷约占总功耗 30–40%[39];液体冷却可将 IT 与制冷合并大幅降 PUE 至 1.1 左右[29][115]。
; s3 s; n8 G1 |% f2 [9 v1 s水耗:典型 DC 约 1.9 L/kWh 水用量[105],每日用水可达 300,000–5,000,000 加仑 规模[100][101]。
7 z+ Q2 q3 @2 J3 Y4 h7 K  B6 j人工:视地区而定,在中国/印度/东南亚占比 5–10%,在美欧可达 15–20%。
5 u0 [* i5 ]# A8 U托管/物业与维护:
8 D+ v) j. P/ n9 n' J托管:高密机架约 $1,500/机架/月,标准机架约 $600/月[40][28];
  P, V  P: _" H0 F. q9 ]9 K硬件维护:LenovoPress 模型中按设备价 12%/年[28]。; e( I! K6 ]! K
3.2 区域差异(以 400MW / 3 年期为例)
; z) V. g3 h1 Y9 N+ U- c5 t* S8 c使用 ChinaTalk 的电费与人工估算[1]:
: v' v/ m# l/ P
" n! ~+ p9 c% B4 Y. q电费(3 年)​ – 假设 GPU 利用率 60%,IT 360MW,PUE=1.11:9 [8 o6 p/ `$ p$ d! j
中国:约 $0.06/kWh → 3 年电费 ≈ $350M  L  a+ t& ]4 |* J
美国:约 $0.09/kWh → 3 年电费 ≈ $600M- h0 w3 K5 o7 h) Q
中东:约 $0.07–0.10/kWh → $400–550M
# Z  J3 _7 ^0 Z! G- O欧洲:约 $0.20/kWh 以上 → 电费 > $1B(显著劣势)+ s- L5 o7 r" v4 N3 j
水费(3 年)​ – 以 MS Fairwater 站点 280 万加仑/年为参照[1][103]:
/ t4 W* F1 H3 |美国水价约 $5.18/千加仑,中国约 $2.57/千加仑[1]. s7 s/ e$ ^: r* H( D( ?$ g
三年水费级别:
. A  s9 _# o. D9 }, V; ^美国:$40k+
7 [. l* n- n) U中国:$20k+
: `: `$ h3 K( x1 |( v5 {结论:水费是数量级上可忽略的小项,真正的约束是水资源总量与选址,而非成本。​
0 E8 n6 k+ L/ ~) X) j$ J人员成本(3 年) – 假设 500 名全职运维:
' t8 _- n( r8 E+ A  Z. h/ j6 J; m1 f美国:500 × $120k × 3 = $180M+
/ J' y: Y, Z/ G8 L中国:500 × $22k × 3 = $33M+, n8 \, W3 l4 _' A' q+ c
差异约 $150M,规模与 3 年电费差不多,是中美间第二大成本差异来源。
/ y9 S5 J% |# I  W  m整体 OPEX 粗算(3 年)​ – 400MW 场景下:
9 t  t  B2 N4 g
8 L4 V& _1 N1 q/ h项目        中国        美国4 |% o; G7 i, T- K3 O$ ?+ X
电费        $350M        $600M
1 ?. B) E! B8 m# W# \3 T1 o: e水费        <$0.05M        <$0.05M+ k, m% Q/ `' x$ |; T
人员        $33M        $184M$ u( g8 Y+ }4 [2 E/ v) }
其他维护/托管        同比例估算,地区差异主要体现在人工与地价       
. S$ u) l$ j2 S6 x2 @9 K5 L结论:3 G6 t6 A8 I2 J6 Q3 y" o, {  N
" v4 O* v9 x, \( }- Q9 ?
就 3 年期而言,中国与中东在 电价+人工 两项合计可比美国/欧洲节省 数百百万美元级,与整体 CAPEX(数十亿美元)相比不算决定性,但对净现值和现金流有实质贡献。
+ K" b" F+ e* ]对大模型服务商而言,更核心的是 GPU TCO 与 token 单价之间的剪刀差,而电价更多影响“边际利润率”而非“能不能赚钱”。​/ `0 B7 Y5 Q9 C+ |+ S! c% p
四、基于 token 的成本与利润推演
+ a2 R# z$ N6 a2 x% p4.1 能源维度的 token 成本(题设 0.3 美元 vs 0.3 元)8 _& w+ H4 m& C. {
统一假设:
3 j0 U0 y2 r" P1 z# O' K
0 V- N8 E% [- ]7 [+ \# n典型大模型推理能耗:约 1 J/token(考虑 FP8/BF16 优化、Batch=256–512 时的能耗甜点[26][17][18])# B" x# Z( l3 D8 O) Y" F# S
1J = 2.78×10⁻⁴ Wh → 每个 token 约 2.78×10⁻⁴ Wh
4 R0 O8 ~' G1 |6 l' b$ h1 百万 token:278 Wh = 0.278 kWh0 p+ p# }, o8 U8 c  ^( s
场景 A:美国电价 $0.30/kWh; j/ e) k' a# _0 S+ t5 C
电费/百万 token = 0.278 kWh × $0.30/kWh
, \; i) x, p0 W% v≈ $0.0834 / 百万 token
0 D+ ?* q( s$ b- \9 @: L; P场景 B:中国电价 0.3 元/kWh ≈ $0.042/kWh1 V" m* V5 M9 @; \0 v) Q
电费/百万 token = 0.278 kWh × $0.042$ A( n: W( c& G* e  @
≈ $0.0117 / 百万 token) w: x, ?( Z% Z# _- \% r. X
对比当前 API 价格(OpenAI 2026Q1)[62]. ]6 y7 |1 h! N
以输出侧为主(成本最敏感):6 ~" _$ e$ f5 W
8 Z( L' ?0 H6 s& f
模型        输出价 ($/百万 token)
6 M' b# X0 O) k% V' s2 EGPT‑5.2        $14, j- J3 H: J9 M: s5 q
GPT‑5.2 Pro        $168
. o% Z; K6 R9 v. J* `. AGPT‑4.1        $89 N6 W& t: N  j, e
GPT‑4o        $10
8 E- s3 z  J+ zGPT‑4o mini        $0.60
) T' H$ I1 P0 n" p* W6 J# S, A则:
& Q" I: `) I9 C+ r% X- Q3 f
8 q9 j5 m* h9 a4 K9 A9 F: ^9 R在美国 $0.30/kWh 的极端高电价下,电费占 GPT‑4o mini 收入的 ~14%(0.083/0.60),占 GPT‑4o 仅 0.8% 左右。
+ H6 R) v# m( b' Y. o9 U在中国 0.3 元/kWh 下,电费占 GPT‑4o mini 收入的 ~2%,占 GPT‑4o 的约 0.1%。& T; m$ y+ [+ N
相比之下,GPU 折旧+云溢价+开发/运维成本才是主导。' H- a. M4 P+ c  }8 v* `
结论:​5 h% u( p" c: b/ V
即便在“美国 $0.30/kWh vs 中国 0.3 元/kWh” 的极端对比下,每百万 token 电力成本差异约 $0.07,与主流 API 价格($0.6–$168/百万 token)相比仍属“小数点后两位”的影响。区域电价主要调节“利润率边际”,而不会改变“项目能否盈利”的结论。
6 l* p- X/ X- m+ t; A) M5 V
6 ]) f* M. j* R  l7 I; L4.2 全成本 per token:自建集群视角(基于 LenovoPress TCO)
$ Q( \* n7 ]8 \$ G以 LenovoPress 的 8×H100 Config A 为例[28]:. D( I3 E" g) ~, w& A, J1 |  L# ?

; B# I1 |9 H8 t& M/ p5 年摊销下,8×H100 本地推理 70B 模型:
) [. x+ ^. C* W5 m0 h: s& c4 N小时综合成本(CapEx摊销+Opex):$12.08/h; J1 m) P6 x8 R, m
吞吐:30,576 tokens/s → 每小时 ≈ 110M tokens
2 m4 E/ q6 K* o! }成本/百万 token ≈ 12.08 / 110 ≈ $0.11/M token& l# _+ |+ A9 R8 b& \6 N
电费在其中的占比:
3 \; |' y4 l8 }4 mOpex 6.37$/h 中电力+冷却约 $0.87/h[28]
: t" T1 d; T) v' @+ d' M电费/百万 token ≈ 0.87 / 110 ≈ $0.0079/M token: r. v2 {& x0 ?/ s0 q5 \
电费占 总 token 成本 ~7% 左右。
  \/ Q" h6 g  z: F若将美国电价从 ~$0.12/kWh 提高到 $0.30/kWh,则电费约增 2.5 倍,对总 token 成本影响约 +10–15%。
4 P3 O3 E+ Z, x" Y3 H5 o若迁至中国西北 0.3 元/kWh 或中东低价长协,电费可再降 40–60%,总 token 成本再降低约 5–10%。
. V: k, x1 h  w/ @6 k7 o
- \0 i: }: G9 B  ]' M因此:​! A& C# e* c) N3 Y% M8 o5 H
# i: E! w) L) |1 K& [2 V: o
在自建集群场景下,电价对 token 成本有可见但非决定性的影响(变化量级在 ±10–20%)。+ y! I5 m! c8 K7 W
在云租和 API 模式下,电价影响则被进一步摊薄,绝大多数利润被云厂商的溢价和 GPU 供应链吸走。% B8 @0 D+ X' f2 F/ t
五、不同芯片方案的建设与运营成本对比, e1 P. z' M4 p) o; e4 n/ r
5.1 NVIDIA 方案(H100/H200/B200/GB200)6 [1 |7 q! X6 o/ w7 A! o
CAPEX:​) f+ Q; W8 L) p4 B+ v# K

  w+ t( M0 Z5 OH100:单卡市价 $25k–35k,8 卡服务器约 $250k+(Lenovo 配置价 $250k 左右)[9][28]。8 r' N1 E8 G' I- k$ R
H200:显存提升,单卡价更高,8 卡节点约 $280k[28]。5 [9 x/ @- d* [
B200:Blackwell 代 GPU,8 卡服务器约 $338k[28]。1 Q5 v/ [, h0 z- i* w! j
GB200 NVL72:
, ^  u6 x" s' Z5 a每 rack 带 72 GPU + 36 Grace CPU,售价约 $3.0–3.35M[34][69]。
0 u- ?( z% {4 M. v& m冷却系统每 rack 额外 $50–56k[35]。
: g3 A0 c) }3 T  y& X: u( b; P" V' w在 400MW 场景中,GPU 总 CAPEX 约 $5.6–7B,占总体 CAPEX 近 40%。9 c. g& I" ^1 z
OPEX & 能效:​$ S% ~1 W5 ^! L" M( w6 W

5 d4 \+ @. l4 _' R' q0 ?  W; u2 F单 GPU 功耗:5 E4 j# q0 A0 [3 a& z2 M9 U) S3 ?- E
H100:TDP 700W;集群实际单 GPU 含服务器/网络开销可到 ~1,500W[16]。
; n6 K; X/ M$ {5 |; k3 e! f* `" Y- WH200:功耗类似或稍高,但性能/W 提升[9][10]。9 r0 O( _& u: `( b! Q' C
B200:标称 1,000W TDP,但实测约 600W 左右[68][69]。
0 G8 E$ Y+ `0 }1 DToken 性能:  @4 Y' x3 P: R0 u4 p! z$ @! B" l( |
B200:官方推理基准中,可达 60,000 tokens/s/GPU 级别(gpt‑类模型)[68]。- m) M0 m# y  {3 Q
NVIDIA 的优势:% v+ K6 }5 ]( d

9 }) e+ @, d1 b9 [2 B* Y1 g软件栈成熟(CUDA/TensorRT‑LLM),易于榨干硬件性能,batch 与多 GPU 并行调度成熟 → 在同等 PUE 与模型条件下可达更高 tokens per Watt。0 Z/ B8 E4 h! Q
但硬件价格与毛利极高,从 TCO 角度,“谁买单 GPU 溢价”是关键——云厂商多半将成本转嫁给 API 用户。+ W  X9 V" \7 q2 Y# ]: c
5.2 Google TPU 方案$ Y+ L; M; W( Z# j
CAPEX:​
7 g) X' }7 @7 v5 U: W  q3 J
7 a! c- [6 z- r& I1 c) ]- |单 TPU v4 定价约 $3.22/芯片小时,v5/v6 在云端按实例小时定价对外[52][54]。
$ g3 |/ P7 Q+ @' }( wGSR 估算:TPU 的出厂 ASP 约 $4,500–5,000/片(Google 内部成本)[54]。
3 u5 W2 @' l, z" B8 TPU v5e 实例约 $11/h,而 8×H100 云价可高达该数值的 5–10 倍[52][54]。
( _6 k4 x9 P5 L能效:​
1 C' u( n# |0 N4 z
, P7 W& a0 r+ w9 j4 ]; yTPU v5e vs H100:/ f% x  c, n" g: e. a+ D
同级推理场景下,8×TPU v5e ≈ 2,175 tokens/s(Llama2‑70B,INT8)[67],H100 需更高功耗才能匹配。
8 [: W' f, R! ^7 E8 B3 F& m测试表明 v5e 功耗约为 H100 的 1/5 左右[67][52]。
4 ?  i: X( y! w( ~新一代 Trillium/TPU v7:
8 T) z! C# q9 I% J能效比 TPU v5p 提升 ~67%,对 H200 或 B200 整体上能实现 2–3×性能/W 优势[52][65]。8 [- o: o3 Z8 ?
Google 方案的特点:1 Y% u* g7 \# i; ]- ~2 q

: T9 n; q3 F( U  V+ k3 F自用闭环——Google Cloud + TPU + Gemini,利润来自整体云栈,而非单个芯片;
# c4 p9 i8 v2 }" z  k对外公布的 API 价格较为激进,TPU 方案在 tokens/W 与 tokens/$ 上具有显著优势,尤其在内部工作负载。
) D- H6 k' ?' A  j/ R4 z5.3 华为昇腾 910B / 910C 方案
4 I5 j' k3 [$ LCAPEX:​
# O! D* k. e+ o, S8 u7 v8 R/ q- Q" W- r4 }! z+ N  O. R; B
单 910B 芯片成本约 50,000 元人民币 ≈ $7k[60];910C 约 110,000 元[60]。
$ ?( S& }* k" ~& w4 f8 ^' M与 A100 对比:9 L) i$ m- I: J, n
FP16 算力 320–376 TFLOPS,功耗 310W,性能接近甚至略高于 A100(400W)[80][81][82]。
& W- f% K9 [* W( U市场报道中,NVIDIA H20 在中国售价约 10 万元/片,而 910B 更便宜 30–40%[61][72]。. C5 r7 z1 M* U1 ~7 T3 a& A, _
使用昇腾构建类似 400MW 级别集群,总 GPU CAPEX 相较 NVIDIA 可节省 30–60%,视集群规模与供货条件而定。: F  k7 ^/ |; v5 }: j9 w
OPEX & 能效:​
) U% ?  g! z, z' d4 |* k
9 S! j/ @3 S# q4 a& g, U2 Z910B 功耗 310W,FP16 320–376 TFLOPS → 性能/W 与 A100/H20 接近或更优[80][81][82]。- t) W  [0 u+ [) ?! o
部分推理 benchmark 显示,长上下文(>4k token)推理时,910B 在 tokens-per-watt 上可超过 H200[71]。: a4 n% N5 g* R  k9 H& [' B$ l
在中国电价(0.3–0.4 元/kWh)环境下,昇腾方案在 TCO/tokens 维度有明显优势,但生态与软件栈仍在追赶 CUDA。
: ^, n" r6 N& v& m; h7 b$ ?5.4 平头哥真武 810E(PPU)方案4 V- D9 f2 a6 E+ s! F/ Z' n1 ^* X
CAPEX:​1 l& D# i4 V( u/ N
) q1 a2 C/ Y8 M
技术参数:5 t% ~1 e+ l7 y! v. _9 W
96GB HBM2e,片间互联带宽 700GB/s,自研 ICN 互联,PCIe 5.0 ×16,400W 功耗级别[59][102][111]。
& M! O  ]% ?7 O性能:官方宣称整体性能超过 A800 与主流国产 GPU,与 NVIDIA H20 大致相当,升级代际可逼近/超过 A100[59][110]。
6 f: y/ _; D4 w8 Y7 Q" w% c" k价格:" A+ L- L2 p8 J& \+ |. W5 g! S) L9 \8 ~
未公开详细单价;多个媒体报道指出“单位算力成本可下降 ~40%”,与英伟达 H20 有 3–4 成价差[74][112]。
0 h3 r$ q% [1 k: G1 ]结合国内报道:8 \& [% D' t3 j: A" @% X
2025 年出货量数十万片,已在阿里云实现多个万卡集群部署,服务 400+ 客户[59][111]。
1 I5 V- M, x+ n+ A数量规模与生态成熟度迅速提升,使得 真武+昇腾 成为中国公有云/算力租赁的主力基础。& z* ]; R8 S2 X; Q2 }' `' U
OPEX & 能效:​
) m  {- m- h/ v( F
- x4 {- L4 K% z400W TDP、96GB HBM2e,使其在 高上下文、RAG、大模型训练+推理一体化场景 中具有良好性能/能效平衡;! s/ t. ^; V) W3 w
在中国低电价 + 低人工成本环境下,真武方案可将 AI 推理服务的综合 token 成本进一步压缩 —— 对标 NVIDIA H20,本地算力提供商可在保持 ~8–9 成性能的前提下降价 30–40% 仍保持毛利[74][112]。) A, z4 x7 v+ J3 k" ]9 R+ R
六、综合比较与策略建议
2 @( Z9 i' g0 l1 z# z/ j6.1 区域维度:在哪里建 AI 数据中心?: x; X/ H6 E+ e5 B4 ~
纯经济性(TCO/tokens)排序(假设无政策/合规约束)​:( b  f9 w; x; B7 c; f

' b0 Q  ^' A# N. b& W: ~1 x中国西部/北部(电价低、人力低、建设成本低)
/ X9 O: s+ F: P) S6 r; l- C: C中东(UAE/沙特)​(电价中等偏低、土地与电力可得性好、政策支持)
; e7 }) f3 _" U/ r$ |# i* F美国电价低但人工高;东海岸/加州电价上涨压力大& {2 j: s& l1 [# x/ n7 i
欧洲电价高、审批严格,但接近高价值企业客户和数据主权要求+ B2 w1 ^: C. {' L0 W  |
若以“美国 $0.30/kWh vs 中国 0.3 元/kWh”极端场景比较:​
. H5 F$ w% t! E. ^: D- S! J4 ?9 b3 j  W1 ?2 u
纯电费/百万 token 差异:约 $0.083 vs $0.012 → 差别 ~$0.07/M tokens;2 g  a& C4 d. V" h# u
对比 API 价格:差异对整体利润率的影响远小于是否使用 NVIDIA vs 国产芯片、自建 vs 云租的差异;( w1 Z8 ]% b  P* i) O
但在极高利用率的 自建超级集群 场景,电价仍然能在 5 年 TCO 上带来 10–20% 的边际优化,是选址决策的重要考虑。
% e$ X( J% ~; ]+ q) C4 T6.2 技术栈维度:选哪家芯片/云栈?
4 R1 w; r# U4 L; d若目标是全球最优 tokens/$ 且不受出口管制:, O' N, O" q' L* D5 m1 k0 S1 {

9 J4 L0 \/ W( @, K4 C% IGoogle TPU v7/Trillium + 自建 on-prem:性能/能效与成本的综合最优,但前提是可以直接获得 TPU 硬件与软件栈授权(现实中仅限 Google 内部和极少数大客户)。
2 W) y8 J0 W/ w  n5 J* ^) ^若在美国/欧洲,能自由采购 NVIDIA:​  q6 |1 F: N/ k, z
* }, r$ D  A- d( U; L
短中期内,NVIDIA B200/GB200 NVL72 仍是最佳实践:
1 w) V* R" N4 O6 S成熟的软件栈与生态,极高的 tokens/s/GPU;
( Z! I: ?, C3 S" ?: S在云厂商/超大规模自建模式下,配合液冷与 PUE~1.1,可取得较低的 token 成本;+ L8 n; H3 h% a$ r" [4 X7 A
但要谨慎评估 GPU CAPEX≈总投资 40% 的集中风险。* A# k+ |+ q: V& ~+ S7 V- n* t# c
若在中国或存在出口管制约束:​
7 L; [$ T& i) J( h9 t" @2 B" l$ ~5 |
昇腾 910B/910C + 平头哥真武 810E 是现实可行的主力组合:
) ^+ S# e8 P5 K" x& ?7 j# K性能上已能覆盖大部分 GPT‑4 类推理需求;
+ L2 p2 J' |# F8 W单片成本显著低于 H20/H100,集群 CAPEX 明显更友好;
: ^1 j  [: f* V# l软硬件全栈国产(CANN + MindSpore + 通义/Qwen 等),可避免制裁风险;6 E; ]# |. E% B' Z+ u
建议配合:) V' a  y: ~3 g$ D1 q0 q
高效液冷(PUE~1.1)、
+ N7 ^/ {- R* s  W大 batch、路由(浅层任务走小模型/低成本芯片)、
* f3 D( q/ v) z. v1 O5 D: `) ?! {强量化(FP8/INT4)与分层缓存策略,进一步摊薄 token 成本。+ J7 h2 F5 @: a! |4 D* E
长远看,“tokens-per-watt / PCE” 取代单纯 PUE/FLOPS 成为核心 KPI:​
. D) N; l: M0 [+ [$ [* w$ c" h7 [' q$ R4 B: B# _0 ?  L
数据中心运营者应从“PUE 1.5→1.1”的设施思维,转向“每瓦输出多少有价值 token”的AI 工厂思维[29][118];
+ b5 t. }0 J& R8 j& a& r* R; J这意味着:
3 G5 A$ l. I% K' P5 B1 e+ X! p优先选择 更高 tokens/J 的芯片架构(例如 TPU v7、B200、后续国产芯片)​;1 S+ i# f, X- k) z! Y' m
精细化调优 batch size、路由策略、CoT 深度,将“energy-per-token”作为最优先指标来优化[17][26]。
* g, }9 e. r( d& F8 {6.3 针对你关心的具体问题的简要回答) I5 ?. R+ g: c
AI 数据中心建设 vs 运营成本的大体比例?​6 O6 v, h* @/ `

: \* C1 F+ K+ K+ n. _. K" a# j2 q在 5 年期 TCO 视角下,CAPEX(尤其 GPU)约占总成本 50–70%,运营成本(电力+冷却+人工+维护)约 30–50%。
$ y5 v0 |$ r+ ~1 Q6 g" X8 n其中 GPU 自身 CAPEX 占到总 CAPEX 的 30–40%[36]。
; c! L  s& O+ C3 R9 _& @中国、美国、欧洲、中东的成本结构区别?​
( X1 ]% O! I9 c7 t6 X1 \" l7 J/ f( ^6 \$ O0 ]& T" w8 F( h4 e
建设期:* i( B9 z; i3 |# e+ M; v
中国/中东的壳体+机电成本明显低于美欧(约 5–7 vs 8–12 vs 10–11M $/MW)[1][2][20]。
1 a! c  h  b8 @: P: Z9 m4 j4 f运营期:
0 Z2 t5 U' L) @: [0 F( e; q电价:中东 ≈ 中国西部 < 美国平均 < 欧洲
* ~" `+ i0 a# p' e) l人工:中 国 ≪ 美 欧,中东居中。$ d6 x" s4 L- I" a
在美国 $0.3/kWh 与中国 0.3 元/kWh 下 token 成本与利润率?​
2 ~! Z: P6 H; P( S$ @: r# T2 |7 D4 m1 m0 _
对于典型 1 J/token 推理负载:
# q/ Q+ N+ H% v& @美国 $0.30/kWh:电费约 $0.083/M token
7 M* s7 H2 H; `3 s1 Q/ b+ y3 k中国 0.3 元/kWh:电费约 $0.012/M token0 y) {# }, H3 R3 w+ T8 N, `: `
对比 OpenAI 等对外价格($0.6–168/M token),电费无论在中国还是美国都只是利润表里的“小头”,主导因素是 GPU TCO 和平台溢价。​# v& m7 l4 ^! F  n
不同技术方案(NVIDIA / Google / 昇腾 / 平头哥)的建设与运营成本谁更有利?​
$ @" W9 i, J) V
" p1 J+ w1 N) L  E在可获得 TPU 的前提下:Google TPU v7 在 tokens/W 和 tokens/$ 上最优;
. s! p+ s' e( v( \& g全球通用方案:NVIDIA Blackwell 全家桶(B200/GB200)+ 液冷,但 CAPEX 巨大;
8 R2 S. `& |3 ?  ?0 x1 ]中国/被管制市场:昇腾 + 真武 是当前最有经济性与可持续性的路线,综合来看能把 token 成本压到 NVIDIA 方案的 40–70%。
作者: 大黑蚊子    时间: 2026-2-26 21:43
以下是相关引文:+ Z' o% k# w8 v$ |
- z& \  C0 j4 L9 h. a* n- ]
参考文献(按出现顺序编号)8 N& ?) p! ?: P+ C3 C/ F
[1] ChinaTalk – How Much AI Does $1 Get You in China vs America?. https://www.chinatalk.media/p/how-much-ai-does-1-get-you-in-china( F* k; ^# o+ l; ~
[2] JLL – 2026 Global Data Center Outlook. https://www.jll.com/en-us/insigh ... data-center-outlook
6 Z: e( c" z2 R5 G" R[3] Soben / Accenture – Data Centre Trends 2026. https://www.accenture.com/conten ... rt-of-Accenture.pdf
! R, ~# A1 E9 }- W[10] SemiAnalysis – H100 vs GB200 NVL72 Training Benchmarks. https://newsletter.semianalysis. ... training-benchmarks7 Z6 a. _" L; z+ A' B
[12] Edward Conard – China’s AI Power Play: Cheap Electricity. https://www.edwardconard.com/...
, S8 m% t2 l" Z9 A2 G& e[13] ResearchAndMarkets – APAC Data Center Market Landscape (China cost $5.5–6.5M/MW). https://www.researchandmarkets.c ... landscape-2025-2030
* c9 b1 R5 C5 B1 o7 T+ m  L, N[16] Epoch AI – How much energy does ChatGPT use?. https://epoch.ai/gradient-update ... gy-does-chatgpt-use5 n: i- b4 b- n) K! d
[17] Arxiv – Where Do the Joules Go? Diagnosing Inference Energy Consumption (2601.22076). https://arxiv.org/html/2601.22076v21 `  w! G! M4 ^9 z; s7 b$ L# _; q+ W
[18] EuroMLSys – Advocating Energy-per-Token in LLM Inference. https://euromlsys.eu/pdf/euromlsys25-27.pdf; S; v. p* c# N! L3 J. `1 h: `3 I
[20] Capacity – UAE’s Stargate AI data centre project to cost over $30bn. https://capacityglobal.com/news/stargate-uae-data-centre/. I+ i4 W) s3 D3 R% `4 T9 _
[26] John Snow Labs – Tokens per Joule: How to Quantify and Reduce the Energy Footprint of Clinical LLM Inference. https://www.johnsnowlabs.com/tok ... ical-llm-inference/
8 a# D. s& r- T[28] LenovoPress – On-Premise vs Cloud: Generative AI Total Cost of Ownership (2026 Edition). https://lenovopress.lenovo.com/l ... ership-2026-edition* S6 O8 d' H* ^! ~! B: ~% p
[29] World Economic Forum – How data centres can avoid doubling their energy use by 2030. https://www.weforum.org/stories/ ... -and-energy-demand/4 ~  [6 ?2 y7 i; \  N; G
[30] Deloitte – As generative AI asks for more power, data centers seek sustainable solutions. https://www.deloitte.com/.../genai-power-consumption$ ]) C: H. E: Q: v
[34] HSBC / Barron’s – GB200 NVL72 price estimates. https://www.barrons.com/.../nvid ... n-dollar-ai-servers6 S0 c6 |3 s) s# |/ o" {" S, [- s+ G
[35] Yahoo Finance – Cooling system for a single Nvidia Blackwell NVL72 rack. https://finance.yahoo.com/news/c ... well-154500100.html
, e! T* {# \- i: u. P$ V& r[36] Investing.com – How much does a GW of data center capacity actually cost. https://www.investing.com/news/...4 ?( M3 e1 J. K0 I' j! f8 `
[39] TheNetworkInstallers – Data Center Operating Costs: Complete Guide (2026). https://thenetworkinstallers.com ... er-operating-costs/
5 P6 i* b4 N3 G, b[40] ConstructElements – What Does It Cost to Build a Modern Data Center in 2026?. https://www.constructelements.co ... rn-data-center-2026
8 ?  O& m6 K& ~" G% W2 G[41] DataCenterDynamics / JLL – Not a bubble: $3 trillion data center investment supercycle. https://www.datacenterdynamics.com/...
& e0 \' d2 \! a" \  L[44] EIA – Electricity Monthly Update, Industrial average revenue per kWh. https://www.eia.gov/electricity/monthly/update/end-use.php
: K& z6 S" y. V5 X- Z* l5 k[45] Eurostat – Electricity price statistics (non-household consumers). https://ec.europa.eu/eurostat/st ... ty_price_statistics$ r3 O* l3 b+ n9 c1 k2 v
[47] Forbes – What Powers Microsoft’s $15 Billion Abu Dhabi Data Centers (UAE industrial electricity costs). https://www.forbes.com/.../uae-2 ... dhabi-data-centers/5 L- c2 `2 ~: Y. c* a, \5 ]; D
[52] EEWORLD – Let’s talk about AI ASIC chips (TPU v5 vs H200 energy efficiency). https://en.eeworld.com.cn/mp/XSY/a408775.jspx
! Z# l$ E+ \4 Z7 X  E. f3 |) _& }" r[54] GlobalSemiResearch – Google’s TPU challenge to Nvidia. https://globalsemiresearch.subst ... allenge-to-nvidia-a  l7 l8 h; z( R/ M' t. U' t& T/ O
[59] Geopolitechs – Zhenwu AI chip and Alibaba’s three-pillar AI stack. https://www.geopolitechs.org/p/zhenwu-ai-chip-and-alibabas-three% K4 r2 l4 \8 q4 X% l* p) y
[60] Technetbooks – SMIC AI Chip Production Faces Major Setback (Ascend 910B cost). https://www.technetbooks.com/202 ... on-faces-major.html7 Q6 {' i; x9 I$ n
[61] HuaweiCentral / 163 – H20 vs Ascend 910B pricing in China. https://www.163.com/dy/article/J39JB1TH05119JRD.html
( P& y$ R! Z4 a8 _[62] OpenAI – API Pricing (2026 Q1). https://openai.com/api/pricing/+ y1 S' _* w$ I$ W9 z, y
[65] Introl – Google TPU Architecture: 7 Generations Explained. https://introl.com/blog/google-t ... guide-7-generations9 p$ v! l- ?3 {, R
[67] CloudExpat – AWS Trainium vs Google TPU v5e vs Azure ND H100. https://www.cloudexpat.com/blog/ ... ure-nd-h100-nvidia/
$ r7 Z' n0 e# ?- {[68] NVIDIA – NVIDIA Blackwell Raises Bar in New InferenceMAX Benchmarks. https://blogs.nvidia.com/blog/bl ... -benchmark-results/
( M( Z7 _; Z, b. [# l& B[69] StreetInsider / NextPlatform – GB200 NVL72 rack price ~$3–3.35M. https://www.streetinsider.com/... https://www.nextplatform.com/...
  f8 E/ z1 i  }# X' i& u[71] Versus – NVIDIA vs Huawei: AI chip wars (910B vs H200 tokens-per-watt). https://versus.com/en/news/nvidia-vs-huawei-ai-chip-wars$ k  G+ ]) k8 E6 ]( l- F
[73] TechBlog.comsoc – China vs U.S.: Generating Power for AI Data Centers as Demand Soars. https://techblog.comsoc.org/...3 K9 s# ]8 Y( \1 ?. E2 q
[80] 今日头条 – 华为昇腾910B:中国自主研发的高性能AI算力卡. https://www.toutiao.com/article/7480385873733829120/
$ A, M! ?( S: l- I0 l. o- H[81] 今日头条 – 华为昇腾 910B 芯片商用落地. https://www.toutiao.com/article/7491559131456750090/; l. A; S9 |, b+ ?  ~9 B
[82] CSDN – 华为Ascend 910B 芯片 VS Nvidia A100. https://blog.csdn.net/zhuzongpeng/article/details/139610062+ ^4 ?4 k$ T) S  r3 X
[86] IEA / 小牛行研 – 全球数据中心电力需求预测 2026 1000TWh. https://www.hangyan.co/charts/3427621808558311293
: W/ T- h1 m6 W% H[90] 新浪财经 – 全球数据中心用电量到2026年或翻番. https://finance.sina.com.cn/jjxw ... aewuqp9649862.shtml
8 q1 M: c4 C. ]; z4 Q* N[100] Brookings – AI, data centers, and water. https://www.brookings.edu/articles/ai-data-centers-and-water/% F3 x' M* X' ]0 @
[101] Bloomberg – AI Is Draining Water From Areas That Need It Most. https://www.bloomberg.com/graphi ... centers-water-data/
1 i7 J" i4 D4 c5 v1 ^# S[103] NYTimes – Microsoft water usage in AI era. https://www.nytimes.com/2026/01/ ... i-data-centers.html
6 _3 h; _1 I. Q9 Y! O# S& W[105] ScienceDirect – Carbon and water footprints of data centers. https://www.sciencedirect.com/sc ... i/S2666389925002788
* D# h& \$ s2 ~: N[111] IT之家 – 阿里平头哥自研 AI 芯片“真武 810E”发布. https://www.ithome.com/0/917/384.htm
* E9 P% g) ]0 G* O4 ][112] 量子位 / 观察者网 – 阿里平头哥PPU芯片与H20对标及出货情况. https://www.qbitai.com/2026/01/373755.html
作者: 马鹿    时间: 2026-2-26 23:17
你这都论文了!
7 l8 x1 e7 w8 ~9 s, L4 M* t. k" _/ r/ w! O1 q( P7 t8 b) P6 H
美国大数据中心附近建电站有很大优势, 这样看趋势的话, AI本地化的小作坊还是得输。
/ P+ {/ c6 R& i, v' q" x+ }
' n$ s2 d9 H1 p
作者: 马鹿    时间: 2026-2-26 23:18
远古人类久靠水而居, AI时代还是如此!
作者: 三力思    时间: 2026-2-27 01:56
大黑蚊子 发表于 2026-2-26 21:43
8 P$ D7 R! m3 X; |2 `5 f' L- e+ l& t以下是相关引文:
0 {$ Z& e* d* d" y/ O' c9 P3 ?5 F% t/ b' L8 y. a
参考文献(按出现顺序编号)

/ F6 D( z1 M4 }! U) c/ M( R2 u有自尊的国家不会在国境线外建自己的AI数据库和计算中心。 欧公子泪,假装没听见
作者: 马鹿    时间: 2026-2-27 02:09
本帖最后由 马鹿 于 2026-2-26 20:23 编辑 ! o2 ?6 l# a* v0 H7 i
0 h8 w9 D  x/ S+ C  _2 O- b
今年到目前为止token出口已经非常可观了, 以后中国出口排第一位的肯定是token了。
& F5 |2 i1 |2 k. D
. t, A( f4 T' M$ Mtoken 出口 约等于出口电力+算法+算力, 这可比直接卖电划算多了, 又没有关税
作者: holycow    时间: 2026-2-27 03:19
大黑蚊子 发表于 2026-2-26 07:43; b9 Y/ A+ H% ?
后来想了想,我让龙虾爬了一个分析全球AI数据中心建设和运营成本的报告,内容如下:* W7 d7 A; w% y$ U5 s
7 X! [& Z& c( Z0 d
一、总体分析框架与核 ...

2 T, I: s0 _$ e% e$ J" h) o* v, v哈哈,龙虾搞这个调研烧了多少token?
作者: 大黑蚊子    时间: 2026-2-27 09:09
holycow 发表于 2026-2-27 03:19
2 W' I. j1 |+ ]( i' R+ Z哈哈,龙虾搞这个调研烧了多少token?

. V- U9 K% c+ U: @* d, [没数,反正用的是GLM套餐,搞龙虾用美三大怕是要破产
4 {$ D! \/ o- f+ b! ]' ]) i春节前已经正式迈入了日消耗0.1B Token的大关
( Z+ j, U5 m; l/ ]! }1 ?6 I+ M1 ]. O' @# w- X
那个报告的核心要点是
' h7 }+ h: p4 E3 ~% y虽然电价差距比较大,但相对于Token的售价,电价仍然是个成本的小头7 r  T* u" i$ }) Y- Q& k7 `+ I
反过来的意思是,卖token生意利润率之高堪比贩毒
. z  R8 }- {1 p
作者: 伯威    时间: 2026-2-27 09:52
一个相关小注脚:前两天在股票论坛上看到某人分析,出口电力(用于产生token)还不如出口电解铝赚钱。
作者: 大黑蚊子    时间: 2026-2-27 11:00
伯威 发表于 2026-2-27 09:52
+ P+ M2 z+ O) n: w9 H# h2 m. D一个相关小注脚:前两天在股票论坛上看到某人分析,出口电力(用于产生token)还不如出口电解铝赚钱。 ...

1 p& b3 t5 \  M这个我知道- ]1 s5 p6 l6 ]2 _9 f
但是铝有高关税,或者说有继续加关税的可能性
" n8 {) x1 a# x3 s- N而且中国电解铝产能基本上已经达峰,没啥增长空间了& e0 S" m  H* y* z: O0 r$ K
Token可不是这个逻辑
作者: tanis    时间: 2026-2-27 12:18
米国工业用电个人在几个州的体会是远贵于0.1刀一度。 表面上可能1毛一度,其实还有各种附加费
作者: xiejin77    时间: 2026-2-27 16:44
蚊行好。
( ?3 Q% t) m! T7 I6 b; l# g8 W2 O% L) A! R
神牛老师发的2028的那个研报,我已经在公号拆解过了,根本算不上鬼故事。只是不是神牛老师的好友(好像权限设置也加不上),没法评论日志。% Q+ s3 F3 b+ g5 `! C1 i
* V; W9 D& p, G+ y4 X; [
对于你说的这个话题,其实之前我就看过有一篇论文在论述算力主权的问题,我写了文章但公号发不出来,也懒得发了。我把论文的链接放在这里吧。3 Y1 X! x2 R6 O8 z# G* Q- v

) F" r- ]# I4 ^6 @/ }8 uhttps://papers.ssrn.com/sol3/papers.cfm?abstract_id=5312977
作者: 马鹿    时间: 2026-3-1 08:13
tanis 发表于 2026-2-26 23:18
/ N% f) D" Y  k' Q6 J米国工业用电个人在几个州的体会是远贵于0.1刀一度。 表面上可能1毛一度,其实还有各种附加费 ...

: r+ z6 S( q# R  K7 H+ ~* d- B4 v! ~: n( r1 J
民用电我这里0.2刀/度, 还有很多基础费用, 好几行, 只多年前看过一次。然后夏天还分时段, 3pm-8pm 贵很多。
6 {4 v  D5 r9 ^, ^% D) f- l  y3 `, r9 P5 U, H9 F
工业用电不知道价格。
作者: moletronic    时间: 2026-3-1 09:16
俺在硅谷的账单乱七八糟的,各种名目,简单加一下,上个账单上写用电317.38kWH,共收了146.42刀,算是0.46刀一度电。
作者: 大黑蚊子    时间: 2026-3-1 17:40
moletronic 发表于 2026-3-1 09:169 C9 B4 C0 O0 Z7 S. Q
俺在硅谷的账单乱七八糟的,各种名目,简单加一下,上个账单上写用电317.38kWH,共收了146.42刀,算是0.46 ...

+ u8 w: Y, g% V) X( P深圳应该是民用电价最高的地方了,第一阶梯电价是0.66元/度,没有峰谷电价
& _7 ^" w7 O. E% I8 D工业用电估计在西北地区大概能控制在0.3元/度,上不了网的光伏和风电估计会更便宜
: W# M1 M/ J' A9 g2 f7 c8 W- k
4 \$ z3 D2 R; Y" T, Y& A不过一般商业用电的价格是高于民用电的
作者: moletronic    时间: 2026-3-2 02:46
俺那账单上倒是分时间定价,便宜时段是0.25刀一度,但问题是除了按价格乘以度数算的钱,还有一堆乱七八糟的输电费,发电费之类的。。。
作者: tanis    时间: 2026-3-2 13:33
马鹿 发表于 2026-3-1 08:139 R( _  [  T7 u6 c; v* K- I
民用电我这里0.2刀/度, 还有很多基础费用, 好几行, 只多年前看过一次。然后夏天还分时段, 3pm-8pm 贵 ...

1 [& n+ {0 T, ?# i5 g马鹿也住在莱镇和水镇的附近么~
作者: 马鹿    时间: 2026-3-3 10:13
tanis 发表于 2026-3-2 00:33* g  X4 t/ t: K& |6 M
马鹿也住在莱镇和水镇的附近么~

. k! j. O) d0 Z我住在波士顿南边的镇
作者: tanis    时间: 2026-3-8 01:34
马鹿 发表于 2026-3-3 10:13
% D( l4 H% f7 ]" o8 y9 r我住在波士顿南边的镇

, u8 [- Y6 x( j5 Y哦哦哦~




欢迎光临 爱吱声 (http://www.aswetalk.net/bbs/) Powered by Discuz! X3.2