爱吱声

标题: DeepSeek用PTX编程,隐忧乎?无忧乎? [打印本页]

作者: 晨枫    时间: 2025-2-2 22:14
标题: DeepSeek用PTX编程,隐忧乎?无忧乎?
DeepSeek用英伟达H20卡训练V3和R1大模型,但据说没有用英伟达的CUDA语言,而是用了更加底层的PTX。3 Z  \, t  Q: _8 ?& p* |4 }9 N

2 i( y- k: U5 i9 w; O! [  KCUDA是英伟达的护城河。搞人工智能就要用英伟达的图形卡,跑英伟达的卡就需要CUDA。一旦形成生态就反过来了,搞人工智能就用CUDA写软件,跑CUDA就只有用英伟达的卡。, R' @8 q: c' X; R

$ \5 X# s9 Z; I5 e# m) Z' J但DeepSeek用接近汇编语言的PTX编写软件,绕过了CUDA护城河,也因为PTX更加接近机器语言而更快。据说这是DeepSeek里老人马当年搞量化交易的“后遗症”,需要计算机和通信上达到极限性能,只有用接近汇编语言的“低级语言”来编写程序,比如PTX。. c: n" s9 B1 @7 w
. B. \& W7 v* {3 r) u
汇编接近机器指令,速度快,但远离自然语言,语句功能专一、琐碎,编写麻烦,可移植性很差,换一个GPU就需要重写。高级语言的发明就是为了解决接近自然语言和软件在不同平台之间的可移植性的问题的,但执行效率不及汇编。
: |# _, Y9 e! H: L* b
$ q- i# e5 Q, k2 G2 M接近自然语言很重要,这样更人类思维,编程和阅读容易,纠错也容易。跨计算机平台的可移植性也很重要,不仅更新更快的芯片出来了,重新编译一下又可以执行,换上完全“不同路子”的计算机也能执行,比如WinTel换到Unix或者iOS环境下。但编译出来的执行时效率不及汇编。; F% K$ F& o. P3 {8 R2 d: w) v

+ d- Y0 A! d/ s+ o) ADeepSeek绕过了CUDA,但通用大模型要是“绑定”在H20卡上,那就亏了,换卡就要重新编写和测试一遍。
* Z$ v4 Q* {2 K3 d/ Z" }. Y, b4 V0 I: l1 u" h; m
好在大模型的一大神迹就是按照自然语言的要求写程序。换到这里,只是直接写到PTX一级。这个问题解决了,可移植性比CUDA还好,直接用更加接近自然语言的伪码了。
4 {: W: M6 A% e" k& S
+ Z) L" w9 d% x" l3 @, _5 n$ d即使以后不用PTX了,也就是重新训练大模型改用新语言的事。换句话说,大模型代替高级语言的工作了。
) g% Y, ?6 G) z, `
6 j! |' L2 S4 d7 B看来,没有隐忧。+ }" p( B! Y9 C: H4 U

作者: WiFi    时间: 2025-2-4 01:15
应该是用的H800,不是H20
作者: 晨枫    时间: 2025-2-4 01:35
WiFi 发表于 2025-2-3 11:15) M  G: s! I- z# I5 |
应该是用的H800,不是H20

5 b  b1 {% E1 `! O% y两个说法都看到过,我都糊涂了。哪一个更弱?
作者: WiFi    时间: 2025-2-4 02:57
晨枫 发表于 2025-2-4 01:35; u$ G- M9 O, K5 T+ n
两个说法都看到过,我都糊涂了。哪一个更弱?
4 o' H6 R) Z  S- g
Nvidia's H800 was launched in March 2023 and is a cut-down version of the H100.$ r- q/ I+ O. g7 e: D) F
The H20 is expected to be available for important clients in early 2024, with a wider release in the second quarter8 N# y3 B' x5 K4 o! _

  P3 m* V) E- D5 R# }9 j& yH20比H800新一代。应该更好一些。
作者: xiejin77    时间: 2025-2-5 13:58
相比于绕开cuda的突破,其实ds自己设计的Fire-Flyer AI-HPC框架,更值得自豪。
$ R9 e3 c' i7 j* }: v
2 c9 @' j. z. ?; E. o/ C- a" s在训练的尝试中有意绕开了多卡之间必须依赖的nvlink的瓶颈,而这个其实是老黄在硬件底层的护城河,更深也更黑。
作者: 晨枫    时间: 2025-2-5 14:13
xiejin77 发表于 2025-2-4 23:58( K/ G0 ^% L7 R9 @% ~4 @6 ]
相比于绕开cuda的突破,其实ds自己设计的Fire-Flyer AI-HPC框架,更值得自豪。
" u- |9 a# m2 j% N& X+ C1 {
) l+ j+ Z) V! ~! l1 u在训练的尝试中有意绕开了 ...

9 n' N- x& y! M" a这个能展开说说吗?
作者: xiejin77    时间: 2025-2-5 14:21
晨枫 发表于 2025-2-5 14:131 q3 [' @. ^5 m* o( @. Q" ]5 F" o5 E+ k
这个能展开说说吗?

1 X8 |( p. {$ @6 f) U; V  N6 cds自己有篇论文,我找时间专门解读一下吧
作者: 晨枫    时间: 2025-2-5 14:30
xiejin77 发表于 2025-2-5 00:21
: R* H$ i. T3 S$ \" pds自己有篇论文,我找时间专门解读一下吧

4 P* o- G/ K' G9 T* P. ^$ K9 t2 d0 o多谢。恭候。  N3 C8 K+ S# w/ k8 ]& ?

* W( n' ^) k  K; J7 D0 r/ ^DS倒是真开放哈。
作者: xiejin77    时间: 2025-2-5 15:08
WiFi 发表于 2025-2-4 01:15
' l+ P  K# [) [; M应该是用的H800,不是H20

# h* @4 U( c4 K3 {1 V, q3 B晨大的这个说法,我查了一下资料和信源,正好我之前写过ds-v3的解读。感觉可能是有点偏差。
7 R5 x' d* ?- Y: R" @( z6 @  I5 n& v4 u2 x1 w7 n, K5 ?+ V
Parallel thread execution就是PTX。这是一种底层的N卡指令集架构的中间语言,cuda也用ptx,在这一点上确实是类似asm。* S8 F3 i. v/ `; o7 Y9 L8 ]
$ [; g4 c9 e0 Y! e7 l5 v! ~( f
但根据ds自己的论文看,他们用ptx不是为了绕过cuda,而是为了优化效率:
# X, Y! d: t# ~" B7 k. O& {# ?
In detail, we employ the warp specialization technique (Bauer et al., 2014) and partition4 e: |6 f4 {/ P* M# e) P0 H
20 SMs into 10 communication channels. During the dispatching process, (1) IB sending, (2)
" V0 w, B" _% W1 d' M- \" L1 q8 V9 `IB-to-NVLink forwarding, and (3) NVLink receiving are handled by respective warps. The
0 [8 U" Y' I9 e. T; n9 Y: w: znumber of warps allocated to each communication task is dynamically adjusted according to the
' Q- M; v8 d( @) L# Mactual workload across all SMs. Similarly, during the combining process, (1) NVLink sending,- ^- j( h3 ?$ H  x
(2) NVLink-to-IB forwarding and accumulation, and (3) IB receiving and accumulation are also
3 f8 F- t" x. P# i( j. fhandled by dynamically adjusted warps. In addition, both dispatching and combining kernels; v; N/ X3 z8 x3 {3 J5 p
overlap with the computation stream, so we also consider their impact on other SM computation$ L, r$ O! e$ }. Q1 M& S* _# _
kernels. Specifically, we employ customized PTX (Parallel Thread Execution) instructions and
8 H' F2 x$ ~$ }. P! V' q. _4 c2 \- B, _auto-tune the communication chunk size, which significantly reduces the use of the L2 cache! c: K4 m0 S* s$ b6 m: @' C
and the interference to other SMs
.

# t- a  ^. F( y- a1 z. w$ v! l6 H$ x: _+ \- }7 H2 c
理论上说基于ptx的话,N卡可用,华为的910c是不能用的。所以不存在通用性的可能,更像是ds的团队逢山开路遇水架桥的给cuda打补丁。- ]: ?/ {0 V- F* n

作者: WiFi    时间: 2025-2-6 01:33
xiejin77 发表于 2025-2-5 15:088 Z. |9 M% s5 [1 |* H1 ^$ O3 _5 E
晨大的这个说法,我查了一下资料和信源,正好我之前写过ds-v3的解读。感觉可能是有点偏差。
, @& Y7 ~& z# w2 k* t: U, P. d# ^$ Z! X( r! b7 E6 \( r( W
Parallel th ...

; a0 D" P$ \+ P8 R0 ]# m0 D! o! u同意谢总的分析
作者: 晨枫    时间: 2025-2-6 02:13
xiejin77 发表于 2025-2-5 01:08
1 R& O  C# Y  y* |晨大的这个说法,我查了一下资料和信源,正好我之前写过ds-v3的解读。感觉可能是有点偏差。; f3 }3 o' j7 m$ w& N" o# p
! ]4 H+ o1 T9 T6 W
Parallel th ...
4 V1 ?$ a, \" ~) B" [
PTX是不是本来就chip specific?有可能利用大模型反过来把PTX写的东西反过来生成伪码,再针对新芯片的相当于PTX的指令集生成新的软件?这可能丧失了直接用PTX的优化作用,但重获了CUDA的可移植性?
作者: xiejin77    时间: 2025-2-6 08:42
晨枫 发表于 2025-2-6 02:13
8 M0 Z* k0 c# _7 ~, j' ^2 Y6 j' pPTX是不是本来就chip specific?有可能利用大模型反过来把PTX写的东西反过来生成伪码,再针对新芯片的相 ...
1 f1 A3 }# q% D4 X- d
晨大好。
0 e. _1 y/ f) a( Z+ X$ F
( T2 }% T( d% x- [- _我的理解,类asm的语言都是和硬件架构和芯片的指令集深度绑定的。
3 N1 _' T+ H7 P& `! q5 K- c  B& m- N: e. b3 `
您这思路,理论上可行,但是就像用谷歌翻译来回古文一样,偏差会大到不忍卒读。! |' M, x% w! ]: r9 G: v

' o: B* \* r; k" {5 _) ^6 ~" s其实ds并没有想绕开cuda,他的V3版本都是在N卡的体系里做的。
3 i0 y1 s' }! c
5 _& q* I, t# R# L4 `9 O- B3 R要知道,老黄的护城河可不仅仅是cuda生态和ptx,nvlink和IB网络框架才是最底层的壁垒。顺便说一句,DS嫌nvlink的故障率太多,边用边吐槽,还整了一套新架构出来。不过多机多卡的大集群,IB网络近期很有可能是绕不开的,最多就是减少带宽消耗而已。
作者: 晨枫    时间: 2025-2-6 08:50
xiejin77 发表于 2025-2-5 18:42' E8 J% q" `6 w2 ~- O7 A9 S
晨大好。
6 }* I4 s3 y: }& f7 W' Y1 J8 P
& _0 _0 g$ q* I6 S我的理解,类asm的语言都是和硬件架构和芯片的指令集深度绑定的。

7 v9 `9 k' `4 [4 }8 N% ]% X多谢解释。那DS为什么不直接用CUDA,还要费事用PTX呢?
作者: xiejin77    时间: 2025-2-6 09:14
晨枫 发表于 2025-2-6 08:50
' {+ D9 U' C$ R/ u% u4 V8 A$ R7 B多谢解释。那DS为什么不直接用CUDA,还要费事用PTX呢?
$ ]! W- [/ w4 u# q
在论文里,这是第3.2.2节的内容
9 _4 c" f$ @! ~/ Q% R( A! o7 s% W% |; _% p
3.2.2. Efficient Implementation of Cross-Node All-to-All Communication
5 w" O6 N+ T7 T7 y3 C2 aIn order to ensure sufficient computational performance for DualPipe, we customize efficient, [* A5 p& z; B' U) z1 G: k
cross-node all-to-all communication kernels (including dispatching and combining) to conserve
" z( H0 v- F! S. uthe number of SMs dedicated to communication. The implementation of the kernels is co￾designed with the MoE gating algorithm and the network topology of our cluster. To be specific,
5 g% D! ~' \9 _% p; din our cluster, cross-node GPUs are fully interconnected with IB, and intra-node communications" x+ y: X; f4 s5 Z
are handled via NVLink. NVLink offers a bandwidth of 160 GB/s, roughly 3.2 times that of IB
  @  x, P1 U, Q0 u& Y# k, ~; n(50 GB/s). To effectively leverage the different bandwidths of IB and NVLink, we limit each
9 G) w4 t  l3 g3 r, n) U1 }3 e4 dtoken to be dispatched to at most 4 nodes, thereby reducing IB traffic. For each token, when its
; A0 l  r# ~, r" y# N9 _) ?& u) y5 Zrouting decision is made, it will first be transmitted via IB to the GPUs with the same in-node2 [* q4 Z: j) N
index on its target nodes. Once it reaches the target nodes, we will endeavor to ensure that it is  z: L$ _1 P6 z: r
instantaneously forwarded via NVLink to specific GPUs that host their target experts, without2 L5 K. `5 E; }/ b' V, x/ ]9 }
being blocked by subsequently arriving tokens. In this way, communications via IB and NVLink
$ D. A6 [' f. C0 Jare fully overlapped, and each token can efficiently select an average of 3.2 experts per node1 g( f! F) z$ {! f- W
without incurring additional overhead from NVLink. This implies that, although DeepSeek-V3
# v; T4 L& H& }13
; Q8 `) j/ U4 ]& S8 g3 Cselects only 8 routed experts in practice, it can scale up this number to a maximum of 13 experts0 L+ I3 U# E$ k. Q6 t
(4 nodes × 3.2 experts/node) while preserving the same communication cost. Overall, under
2 F9 M8 f% ~2 o2 Hsuch a communication strategy, only 20 SMs are sufficient to fully utilize the bandwidths of IB. \+ r) R6 J7 r' I
and NVLink.
$ }1 n" t: y* P" W' X. y) VIn detail, we employ the warp specialization technique (Bauer et al., 2014) and partition/ J  J  ]7 v7 c% ], I% k
20 SMs into 10 communication channels. During the dispatching process, (1) IB sending, (2)" y( _3 b6 X7 s' Y  m
IB-to-NVLink forwarding, and (3) NVLink receiving are handled by respective warps. The: A4 S: U- V/ I/ I: {6 H( @6 W
number of warps allocated to each communication task is dynamically adjusted according to the
" U+ u! s3 v- U: ~' C* C" vactual workload across all SMs. Similarly, during the combining process, (1) NVLink sending,
) [! ?1 a5 t5 x) |3 \(2) NVLink-to-IB forwarding and accumulation, and (3) IB receiving and accumulation are also
  @8 R- d2 e6 L$ ~$ r( Q9 g4 _handled by dynamically adjusted warps. In addition, both dispatching and combining kernels5 W5 Y4 s0 S8 V: P" V0 A
overlap with the computation stream, so we also consider their impact on other SM computation& q' G" j& d+ `# R1 i8 A3 l( s
kernels. Specifically, we employ customized PTX (Parallel Thread Execution) instructions and9 Q* T) @( n% a( G) [  {
auto-tune the communication chunk size, which significantly reduces the use of the L2 cache2 u1 N' Z. ^# S2 ~; Q8 Z$ V% P' Q# a
and the interference to other SMs.
8 F% [! Y/ x0 r5 k
4 \+ F5 |; c4 \' t通俗一点说,就是为了实现高效的跨节点全面通信。解决的问题本质上和唐家山老师日志里说的双机对拷的场景差不多。一般来说单机多卡之间用nvlink,多机多卡之间依赖IB网络,但nvlink的速率是IB网络的速率的3.2倍,需要通过一些优化来实现更好的传输策略。这是一整套方案。, E9 d. k: _1 Q; `" W3 @- t1 F) ~
$ ^+ X/ p; ~3 Z+ i6 D
我的理解,使用PTX在其中,是为了更精准的定制线程执行减少通信块分配传输之间的串扰。* m) w7 c0 [0 P/ \4 x$ ?% I$ j

  z' O6 V5 G4 h  T& m& S# l  r目的不是为了绕cuda,反而是为了让cuda的效率更高。
! m; `& A: c3 z. V4 V7 ~( e- [4 j
7 e+ [3 {- z9 }, ~类比一下,就好比发现网卡驱动在对拷特定内存块的时候会和应用的线程执行出现串行导致效率降低,而绕开操作系统定义的与网卡驱动的接口,直接使用网卡支持的指令集进行了优化。
作者: 唐家山    时间: 2025-2-6 09:51
本帖最后由 唐家山 于 2025-2-6 09:53 编辑 / u/ T; D, C9 _8 B$ j- ^7 k
晨枫 发表于 2025-2-6 08:502 S1 }# n. B0 R
多谢解释。那DS为什么不直接用CUDA,还要费事用PTX呢?

3 D' }; ?5 r6 V4 R* f* A; Y: h5 B3 ~+ g6 @- V) s3 f
应该是性能的原因。打个比方吧,操作系统内核一般都是用C语言写的,但是一些关键部分会用汇编语言来写。原因就是汇编语言的代码(指令)比C语言编译后的代码(指令)的性能要高。
作者: 晨枫    时间: 2025-2-6 09:53
唐家山 发表于 2025-2-5 19:51, I! _1 _) k1 |
应该是性能的原因。打个比方吧,操作系统内核一般都是用C语言写的,但是一些关键部分会用汇编语言来写。 ...

/ D- y$ |8 j2 o7 y& b; \多谢解释。
0 K1 R8 T# A* H7 u* i; t( G
9 R. ~0 S& ~: W. _6 [# x那DS如果把模型移植到华为芯片,应该需要重写软件吧?而且无法从原有的CUDA架构下移植?
作者: xiejin77    时间: 2025-2-6 09:58
本帖最后由 xiejin77 于 2025-2-6 10:01 编辑 , \# M- `+ k5 Q1 p: p
晨枫 发表于 2025-2-6 09:53
5 x* h6 `0 H  ~; h4 J- p8 E% p多谢解释。8 e9 D) E: b& p$ b4 e

' G: N, }; C1 Y  O2 q- D# g+ L* G那DS如果把模型移植到华为芯片,应该需要重写软件吧?而且无法从原有的CUDA架构下移植? ...
4 }9 x; [0 ^8 c: {0 O, B# q5 i
+ O7 Y5 U3 L) b* O" A6 G
这部分是DS用来做模型训练、推理的辅助工具软件使用的底层驱动,理论上说,效率可以接受的情况下是不需要做移植。cuda和华为cann工具链生态的顶层封装其实很像,真正需要适配的是这一部分。
  X6 b; m% \4 E+ B  k. A' ]' u3 H$ k  A3 q
华为自己好像发过新闻,ds的670B版本可以在910c的集群上用,但性能只有60%。
. W; n% s1 S: `/ W3 S5 M& o) ?% @- R( ^; r
大模型的生态产业链其实挺长的,从芯片、数据,算力底座,网络等等等等。甚至连某些小众的领域都可能成为大模型生态链的瓶颈,比如支持rdma的全速网卡和超越IB网络的路由器。这一方面国内还有很长的路要走,很多的坑要踩……
作者: 唐家山    时间: 2025-2-6 09:59
本帖最后由 唐家山 于 2025-2-7 09:02 编辑
: ~3 F8 \# @' g( z1 H% n# x- \
晨枫 发表于 2025-2-6 09:53  A, b: g/ z8 ?
多谢解释。5 \" X1 X0 p, A9 z6 k6 p8 K
7 N. u7 `* l5 {5 S  V* E
那DS如果把模型移植到华为芯片,应该需要重写软件吧?而且无法从原有的CUDA架构下移植? ...
3 f) |& D4 v( H
; A- z  [2 h3 E8 G* f$ T
确实需要重写。不过重写软件的代价并不像外界想象的那么高。显卡(计算卡)的硬件架构比较简单,上面用的指令集基本上都是相同或类似的。从CUDA架构移植也不麻烦。真正麻烦的地方,是经常会有一些隐藏的bug需要fix。
4 x( A# I4 x! u) M4 j: {1 E$ r$ H3 M" m' d, P) {3 V& O! m0 q5 \! H
更正:刚才查了一下。各个厂家的GPU指令集在架构设计、编程模型上差别还是挺大的,不能直接移植。这是我想当然了。另外,早期的显卡上的操作比较简单,现在的显卡(计算卡)的操作已经相当复杂了。以后还得学习之后再发言,否则就闹笑话了。
作者: 晨枫    时间: 2025-2-6 10:02
xiejin77 发表于 2025-2-5 19:58" r: F# ?* w( H+ G
这部分是DS用来做模型训练、推理的辅助工具软件使用的底层驱动,理论上说,效率可以接受的情况下是不需要 ...

( o$ A: s5 P) m& Z0 x嗯,不大懂,看来way over my head了,就不去勉强搞懂了。) }1 R7 r- W8 `) z# y0 j
' V0 y" r- O" A2 F3 U/ D
多谢解释。
作者: 晨枫    时间: 2025-2-6 10:04
唐家山 发表于 2025-2-5 19:590 }4 \: ?, ]9 b. F  u
确实需要重写。不过重写软件的代价并不像外界想象的那么高。显卡(计算卡)的硬件架构比较简单,上面用的 ...
" {0 s8 t: ]1 d1 c
多谢解释。4 ?' V2 ]2 o9 {5 m2 [, N

9 Y7 s4 W8 q+ ~3 K% {我用过的语言不多,除了常用的科学计算语言,工控语言用的比较多,各厂家之间基本上无法移植,还不只是语句上的差别,有些架构上就不一样。但看来图形卡的专用语言没有那么不同。
作者: 唐家山    时间: 2025-2-6 19:31
本帖最后由 唐家山 于 2025-2-6 19:56 编辑
' x5 c" L9 s( y; r
晨枫 发表于 2025-2-6 10:04. o" A- h+ y! o. f; u) u5 B
多谢解释。  ~! a- l0 W, C

' v9 ~1 B$ D. C  k, H" K我用过的语言不多,除了常用的科学计算语言,工控语言用的比较多,各厂家之间基本上无法移植 ...
5 r6 c: d* y, a" a+ m- P
/ E1 Y( q2 x; z! |# Q
刚才查了一下。各个厂家的GPU指令集在架构设计、编程模型上差别还是挺大的,是我想当然了。另外,早期的显卡上的操作比较简单,现在的显卡(计算卡)的操作已经相当复杂了。以后还得学习之后再发言,否则就闹笑话了。
作者: 大黑蚊子    时间: 2025-2-7 00:43
xiejin77 发表于 2025-2-6 09:58
1 ?$ c* J" A! F1 J这部分是DS用来做模型训练、推理的辅助工具软件使用的底层驱动,理论上说,效率可以接受的情况下是不需要 ...

+ c( a5 I8 ?1 s1 h6 SDS训练用的是自己以前买的A100/H800,H100有没有,有多少,印象里DS没说
" a7 f4 S  h4 \; {0 W* E' uDS自己也买了很多华为的910B,事实上国内大厂(阿里、腾讯、字节啥的)都大量在买华为的910系列用于训练
4 o' ^! f  M) W( c8 f) I买H100以及GB200那些不是不行,涉及到制裁和转运,内部合规都很难,实际采购量很少
8 B; f! m# s7 M9 [% u至于特供中国的H20,这货做训练不行,做推理也不行,卖的相当不行,之前WSJ还是谁来着吹说中国要买100万张狗屎H20,后来被证明纯属YY,可能实际采购量连这个数的5%都不到
$ F& C- z9 _' V" SnVidia一直以来的政策,是消费级显卡不能用来商用,也就是说4090不能用来搞训练啥的。之前各家大厂因为还要从老黄那里买卡,也就捏着鼻子认了买高价货,结果老美一刀切之后,反正特么以后也没生意做,干脆掀桌子,鼓捣出用4090芯片+3090PCB板+魔改48G显存的4090ProMax商用版,一块不到3万人民币,用来跑推理性价比高得出奇。
& r( {* B& U/ M; y于是在市场上就出现了二手4090一万六秒收(这货刚上市的时候卖1万3,用了2年多白嫖还能挣几千块),然后PDD上大把一百块一套的4090手办(4090PCB+全套散热,就是没有芯片和显存,本来是垃圾不值钱,所以能卖多少卖多少)
作者: 晨枫    时间: 2025-2-7 00:59
大黑蚊子 发表于 2025-2-6 10:43
; r' O% H( q7 a2 n) B% e" jDS训练用的是自己以前买的A100/H800,H100有没有,有多少,印象里DS没说
0 t* n0 Q7 r1 j8 Q$ \DS自己也买了很多华为的910B,事 ...

* F! Q# \3 `$ _* c* H6 S5 T, Q长期看来还是得上国产卡啊。) t$ ?! [4 X+ m* E( Q8 M+ X' E7 P
, g; F  C5 Q, N: d
不过美国也真是郁闷。中国这蛋糕没得吃舍不得,吃了,结果人家老母鸡变鸭了,防也防不住。
作者: 大黑蚊子    时间: 2025-2-7 01:03
晨枫 发表于 2025-2-7 00:59
) j' |2 b$ V" J3 ?( x长期看来还是得上国产卡啊。
" [) `$ H" Y- P; y- q8 ]* b( x
4 h2 p1 P' N& I; e不过美国也真是郁闷。中国这蛋糕没得吃舍不得,吃了,结果人家老母鸡变鸭了 ...
' c# o0 w6 [! ~0 q2 v  }
看我这记性,说了一大堆是因为nvlink而起,关键东西忘说了+ t+ V, ~. a$ F- h6 v
910B的单芯片性能据说跟H800差不多,但是多芯片及多卡协同效率不太行,只有60%左右,估计还需要不少路要走0 Y, s7 Z+ a/ g* l& o# f
之前nVidia被制裁的那个高速网卡子公司的独门秘籍就是以太网数据超高速传输3 i2 U$ h. I1 P; J4 d4 e

作者: xiejin77    时间: 2025-2-7 09:31
大黑蚊子 发表于 2025-2-7 01:03
' d4 I/ m" A+ I' j9 @看我这记性,说了一大堆是因为nvlink而起,关键东西忘说了5 F5 P: `5 Z% b3 u3 }  Q
910B的单芯片性能据说跟H800差不多,但是多芯 ...

, m4 |6 w! |* P- J' L; I蚊行的知识面是真全面。9 Q  B. `0 r" `" ]+ T
; a6 O- C6 t: D
RDMA网卡的品牌厂商主要有三大巨头企业,分别是Marvell、intel、Mellanox,其中Marvell是收购的Qlogic品牌,Mellanox被英伟达收购。国内做这个的,巨头是华为。上海有一家还不错的企业,我去年年底的时候跟他们聊过。但我的印象里Mellanox的口碑最好。5 X1 z0 m2 k7 R8 Y- P

4 F- k7 c% V( f4 R# f" \7 D, z但RDMA网卡不是单独发挥作用的,多卡间需要路由器支持。主要的方案是roce2和IB,IB是纯血,搭配SXM的nvlink封装芯片,可以跑满。我印象里,roce2和IB之间有这大约一倍以上的带宽差距。
作者: 大黑蚊子    时间: 2025-2-7 15:36
xiejin77 发表于 2025-2-7 09:31
9 G$ R% y& j1 R蚊行的知识面是真全面。
) u2 M" M' K0 Q; h+ t4 O1 ~6 C2 v* s% o
RDMA网卡的品牌厂商主要有三大巨头企业,分别是Marvell、intel、Mellanox,其中 ...

4 {3 i: Z; I8 d" E$ hMellanox的产品好像是nVidia钦定,意思是只有用他们的方案才能达到数据中心卡间互联的预设效率
; K' n$ V. @* d+ Z因为这个,中国商务部指责nVidia在收购Mellanox的时候给出的承诺不实




欢迎光临 爱吱声 (http://www.aswetalk.net/bbs/) Powered by Discuz! X3.2