设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 3755|回复: 40
打印 上一主题 下一主题

[信息技术] DeepSeek R1全参数模型一个可能的本地部署方案

[复制链接]

该用户从未签到

跳转到指定楼层
楼主
 楼主| 发表于 2025-2-20 15:41:10 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
DeepSeek一夜爆火,现在联网服务拥堵不堪。当晨老大号召自建farm的时候,本人开始认真考虑本地部署。 KTransfomer的报道也在第一时间见到,并设想了一个以此为基础的装机方案。然后呢,就“铲后抑郁”了。如今很多内容都在网友[大黑蚊子]的记录(链接)中讨论过了,但具体的装机方案大概还有一些价值,还是写出来吧。1 k% b0 D. J, |: s8 K2 D+ {& z% c
8 o) E8 {, ~  V; x9 [: L& l! D
DeepSeek R1原版是一个参数量高达671B的大模型,虽然比之其它頂尖的人工智能模型在硬件要求上已经大大降低,但个人部署全尺寸模型,依然难度不小。为了便于在低端硬件上运行,出现了一系列蒸馏版减少参数量(以 Qwen2.5 或 Llama 为构架,参数范围从 1.5B、7B、8B、14B、32B 到 70B)。另一个思路是参数量化,例如1.58bit和4bit。一般来说,LLM训练时使用高精度(例如 32位浮点数),而推理时使用低精度(16位浮点数或者更低)即可。1.58bit是把这一趋势推到极端(只有0、1和-1三种状态)。有人试验了DeepSeek全尺寸模型的1.58bit的量化版,结论基本可用,有时候说话可能有点“冲”,圆润平衡上差一些。4bit版效果已经相当好了。至于[xiejin77]担忧的量化影响反馈精度或者稳定性,理论上有可能,但实际影响需要大量的对比实验加以证实或者证伪。" r- |. r; U+ B: ~- b

; c6 U+ {* c; r$ B9 [. y0 X. K8 @) }下面讨论具体装机方案。首先定一下目标。目标用户:个人或者小团体。鉴于这个模型现在典型的应用场景都是文字的输入和输出,跨网络合用的难度并不大(因为不需要占据太多的网络带宽)。单机,预算定位$5000左右。应该属于一个人咬咬牙能冲得上去,小范围集资(10人以内的那种)能够轻易支付。目标性能:DeepSeek R1全尺寸671B的4bit量化版,输出速度与人的阅读速度差不多即可(个人使用,太快了没有必要),约 5-10 tokens/s。这样的预算,这样的目标,显然需要KTransfomer技术加成才有可能达到。饶是如此,也得按市场最低价加DIY省着来。
! V6 D/ F6 S+ K5 h  T% ~$ k( U2 j) ^0 h1 K
第一步:内存的大小。将模型的参数全部放入内存是必须的。如果还用硬盘空间扩展出来的虚拟内存,那速度肯定慢的不行。DeepSeek参数精度16bit(BF16)时需要 1342GB的存储空间,4bit量化版所需空间为其¼,再加上程序和操作系统所需,512GB应该可以了。这么大的内存,普通PC机主板肯定不行,要上服务器的。鉴于当前DDR4的内存条比 DDR5还是要便宜不少,所以选择DDR4。
- F- B" Q# D, o# W" x- S' K# i9 h  v) J- ~6 C6 `
第二:CPU和主板。CPU我选AMD Zen3架构( Zen3是DDR4的最后一代)的服务器芯片EPYC 7C13, 64 core 128 threads, 市场价仅$700+。它与正式发布的7713结构一致,频率略低,有人怀疑类似于Intel的 ES(工程样品)。主板支持Milan的SP3主板即可。唯一要注意的是内存插槽数,根据DDR4单条内存的容量大小,要能够插出512GB来。  o3 ]) m( t* y. q: ?, g1 J+ t: ]

( m, N( g) m) ?  x  {8 [' p' O& o4 {1 Q9 J5 N' _
第三:显卡。双3090或者单4090。4090不好买,用两块3090大致能抵上一块4090。$ J8 j* ?' s8 n+ R  `

( V/ u! H! H/ X0 m" Y% q0 Q第四:硬盘。这个要求真不高,如果机器仅仅是为了跑DeepSeek,一个4 TB$ I  S, Y6 w4 V& J6 v
(或者两个2 TB)的nvme就够用了。(想当初我在爱坛上发记录推荐固态盘时,一块4TB的才$150)
, }5 I- @- Y. `) _9 C) f+ O, Z# _1 j0 \& l2 o5 f% f
其它:说3点。1)普通PC机箱。2)散热避免使用服务器的暴力风扇( PC机箱也缺乏服务器的风道结构)。如果散热量大,考虑用水冷。3)如果单台大功率电源太贵,可以用两台小的给主板和显卡分别供电。如此需要双电源同步启动板或者同步线,但那东西淘宝上也就人民币10块钱。0 A" l* _" ~0 x0 b* L( F* a( F
7 N: B: J" R; {7 `/ S
最后汇总一下。数字为能够淘到的大致美元价,可以接受二手货,+、-表示向上下浮动不超过15%0 @0 v4 _# e8 A* V! B" d. o7 O
# h( T0 |: F9 W5 _* v( i8 e1 b  q
RAM 512GB DDR4       1000+! n2 M& G+ V5 X4 j
CPU 7C13或相当           700+
# i9 U2 s/ {$ ~主板(单路即可)         500" w; P3 E( B! D1 X5 K
显卡 3090                  1000- ×20 s3 j  m& x0 }2 I4 I" @4 T' ?
固态硬盘                     200+5 F$ G; [, w4 J; K( R: G
其它 机箱、电源、散热器等
( {3 C5 w" f6 N( W3 @9 s  g, i* M9 i. D2 `6 W" ^+ G

评分

参与人数 8爱元 +70 学识 +2 收起 理由
helloworld + 10
xiejin77 + 6 给力
mezhan + 10 伙呆了
晨枫 + 10 谢谢!有你,爱坛更精彩
老票 + 2 涨姿势

查看全部评分

  • TA的每日心情

    2025-8-7 11:56
  • 签到天数: 1132 天

    [LV.10]大乘

    沙发
    发表于 2025-2-20 16:27:51 | 只看该作者
    本帖最后由 大黑蚊子 于 2025-2-20 21:55 编辑 % g3 Y5 }" I# W0 B3 Z) S

    6 K4 ?2 ]* F3 Q7 Z0 q7 K说实话我也在琢磨这个玩意儿,几万块钱搞一个这个玩玩,在AI新浪潮初期真的算是一个比较高性价比的学习途径了
    ; Y* X4 R' z$ R) G& l在硬件选型上面我倒是有点儿不同意见,鉴于章明星他们在0.3版里使用amx指令集加速,那么支持amx的Intel至强可扩展CPU应该是要好于AMD的EYPC的,具体来说现在Intel最新款是6代至强,退而求其次选择四代或者五代至强应该也满足要求。章明星团队他们的硬件好像也是双路Xeon 6430) a- x7 L: q% i6 P, u, m( g' U. w7 p; _2 o
    但是这个成本可能要比你说的EPYC要高不少,但总的来说应该还在可承受的范围之内9 H' D4 l" I+ L9 q/ F4 u
    显卡的双路配置好像不是特别必须的,主要是4bit量化版需要14g显存,所以如果有一块3090先用着应该问题也不会太大,实在不行多买一块也可以
    2 B" H- Q$ h3 a$ A% G( P/ B8 A2 F: i$ s8 H
    周末去华强北转转去,看看二手服务器有啥准系统能够直接上手的
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    14 小时前
  • 签到天数: 3549 天

    [LV.Master]无

    板凳
    发表于 2025-2-20 21:42:48 | 只看该作者
    我看到了国内AI的商机。。。 攒小配置的AI模型!
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    14 小时前
  • 签到天数: 3549 天

    [LV.Master]无

    地板
    发表于 2025-2-20 21:43:58 | 只看该作者
    关于方案, 我直接问过deepseek。。。
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    14 小时前
  • 签到天数: 3549 天

    [LV.Master]无

    5#
    发表于 2025-2-20 21:45:02 | 只看该作者
    大黑蚊子 发表于 2025-2-20 03:27
    + [6 |* A+ p( Z2 j说实话我也在琢磨这个玩意儿,几万块钱搞一个这个玩玩,在AI新浪潮初期真的算是一个比较高性价比的学习途径 ...
    ; n. _& F* {( v2 k+ K
    真心羡慕国内了。。。我90年代自己攒过打游戏的计算机。。。
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    难过
    7 小时前
  • 签到天数: 3017 天

    [LV.Master]无

    6#
    发表于 2025-2-20 22:50:55 | 只看该作者
    马鹿 发表于 2025-2-20 21:45
    3 P9 M# n9 ~# q真心羡慕国内了。。。我90年代自己攒过打游戏的计算机。。。

    * ~& s/ P/ j+ O' R5 L社长,美国不是与国内PC价格差不多吗?也仿照沉宝蚊行攒一台呗,
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    14 小时前
  • 签到天数: 3549 天

    [LV.Master]无

    7#
    发表于 2025-2-20 23:19:51 | 只看该作者
    testjhy 发表于 2025-2-20 09:50/ F) a; D$ z+ J4 N& f5 h  e
    社长,美国不是与国内PC价格差不多吗?也仿照沉宝蚊行攒一台呗,
    0 e6 `* H" T+ X( i3 W3 H+ W4 u
    攒了以后干啥呢?
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    难过
    7 小时前
  • 签到天数: 3017 天

    [LV.Master]无

    8#
    发表于 2025-2-20 23:32:15 | 只看该作者
    本帖最后由 testjhy 于 2025-2-20 23:41 编辑 ' ?- _0 I$ s& H9 {

    * N6 X! F9 \7 t, W7 X
    # E. U1 r  V0 G  B0 `3 J这是大华股份根据国产芯片的一体机,估计是华为提供的方案供各家贴牌
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2025-8-7 11:56
  • 签到天数: 1132 天

    [LV.10]大乘

    9#
    发表于 2025-2-20 23:38:22 | 只看该作者
    testjhy 发表于 2025-2-20 23:32, E0 l5 Z0 G4 ]9 F' H
    这是大华股份根据国产芯片的一体机,

    2 s; [9 D- `+ w. Z2 T& h- O9 z大华的这个配置没啥意义,你看跑的都是蒸馏版的7B/14B/32B模型
    7 M( J4 F3 h: h, s) S我在自家电脑上搞了一个7B的模型试了下,真的是不太行% M6 z0 ~, _/ p; E
    我估计32B和70B也都不太行- Y  i/ w* ~. }  |4 H( K. q( r" p
    这个帖子里讨论的应该是直接上手671B的满血量化版,1.58或者4bit版本,这个据多个信源反馈效果挺好的5 C# {, l/ D+ t3 |1 D' Y

    $ A. m2 y- U6 {6 b) B# `  ]
    ) z4 j7 l* G& v不过这个单子我倒是可以拿着去嘲笑下大华的朋友“你们钻钱眼里了?搞这个文字游戏骗钱”
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    难过
    7 小时前
  • 签到天数: 3017 天

    [LV.Master]无

    10#
    发表于 2025-2-20 23:42:39 | 只看该作者
    马鹿 发表于 2025-2-20 23:197 e  g0 M( Z5 N1 n/ R+ o% ^
    攒了以后干啥呢?
    3 U7 K/ v( ?& g2 L1 L
    想干啥就干啥,吃喝玩乐,
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    难过
    7 小时前
  • 签到天数: 3017 天

    [LV.Master]无

    11#
    发表于 2025-2-20 23:45:01 | 只看该作者
    大黑蚊子 发表于 2025-2-20 23:383 R/ J1 o; D3 n' x5 _# R; z, r
    大华的这个配置没啥意义,你看跑的都是蒸馏版的7B/14B/32B模型
    7 U3 p9 z* p1 E: e- d2 Z8 i我在自家电脑上搞了一个7B的模型试了下, ...

    ! }8 `& S! G* N找了一个非剪裁图,看了一个新闻,华为提供方案,有60多家企业响应,大华可能是比较快的,找不到价格,
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2025-8-7 11:56
  • 签到天数: 1132 天

    [LV.10]大乘

    12#
    发表于 2025-2-20 23:53:32 | 只看该作者
    testjhy 发表于 2025-2-20 23:45, y, I1 k3 v8 \, `
    找了一个非剪裁图,看了一个新闻,华为提供方案,有60多家企业响应,大华可能是比较快的,找不到价格,{: ...

    3 Q3 @6 R; `# `我要是鼓捣这玩意儿,肯定是找二手硬件啥的,全新设备的价格那还是相当辣手的" l, Z# j" G2 U' D
    打听了一下Intel的至强4代CPU,现在全球缺货,嘿嘿
    & v# y/ q9 h; v$ z; X2 x0 `去华强北看看有没有QS版本,可能一块就要6000人民币至少
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    14 小时前
  • 签到天数: 3549 天

    [LV.Master]无

    13#
    发表于 2025-2-20 23:53:57 | 只看该作者
    大黑蚊子 发表于 2025-2-20 10:38
    # Z- o. h; y9 q6 A5 X7 Z大华的这个配置没啥意义,你看跑的都是蒸馏版的7B/14B/32B模型% m! j- w1 M' {3 T2 R
    我在自家电脑上搞了一个7B的模型试了下, ...
    1 C7 {6 T( g( d  l/ k
    好奇你攒个模型做啥?
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2025-8-7 11:56
  • 签到天数: 1132 天

    [LV.10]大乘

    14#
    发表于 2025-2-21 00:03:40 | 只看该作者
    马鹿 发表于 2025-2-20 23:53, [2 t# X8 B- g' P
    好奇你攒个模型做啥?

    2 f; J& ?8 p2 F7 A1 z! r. o
    ! L) P2 j3 k6 P6 L+ v4 m8 v玩啊,好奇啊,这很可能是通向新世界的大门5 y  Q. F9 t* f: e
    有这个条件的话,干嘛不玩?
    1 U: h4 N( O; k( _+ y8 P7 H
    . A8 u+ _6 K7 V4 X% }现在大部分人还在懵逼状态中,只是知道个大模型的东西,具体怎么搭,个人知识库怎么建,私有服务怎么处理...好玩的需求多着呢% u8 L  D$ L  F4 h3 `
    , l1 h# a1 p+ X) Q
    DeepSeek的出现,极大降低了大模型训练和部署的总体成本
    ' q8 M  o2 T* m9 E! s$ i. W6 HKTransformer架构的出现,打响了极大降低大模型部署和私有知识库服务的硬件成本的第一枪' S, Y8 \6 t  T+ Q9 [5 E9 f. I& h

    4 Z1 m, y" s% m- c" S$ D% n3 A* {这种能够降低90%成本的新技术出现,大概率后面会蕴藏着10亿级别的新的相关应用和服务空间7 n2 ^( m* q7 O- D. x1 f( F
    玩的过程中也可以吸收很多其他的知识,认识其他稀奇古怪的人,包赚的啊
    回复 支持 反对

    使用道具 举报

    该用户从未签到

    15#
     楼主| 发表于 2025-2-21 00:16:41 | 只看该作者
    大黑蚊子 发表于 2025-2-20 16:278 b0 M3 ], J5 {/ F# T
    说实话我也在琢磨这个玩意儿,几万块钱搞一个这个玩玩,在AI新浪潮初期真的算是一个比较高性价比的学习途径 ...

    9 [2 z. Y+ z+ Y$ q4 k. g: f0 F这取决于对问题的理解和取舍。首先在大模型计算中,GPU的能力远远强于CPU,即使那个CPU有amx指令加速。所以在预算有限的前提下,应该尽量省下钱来加强GPU。当然如果实测一块3090够用了,那更好。
    1 }6 X# K/ `" Z, ]! D6 B/ ]& u3 o- ~2 y- A4 |+ ?6 V
    对比EPYC与Xeon 6530方案。Xeon 6530 2023年底发布,还比较新,主板加CPU的折扣有限。而EPYC Milan则要旧得多,有大批从数据中心退下来的二手货可选。即便有amx加成,但架不住7713的核多,单挑的话还是应该7713赢。而双路7713的话只不过比我的原方案多一颗U的钱,其它几乎不用改。个人认为CPU的第一位作用是保障参数全部装载在内存,计算加速还在其次。章明星团队的努力是充分挖掘手头现有硬件的全部潜力,amx加速是新版才加上去的,可见并非重中之重。
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    13 小时前
  • 签到天数: 3209 天

    [LV.Master]无

    16#
    发表于 2025-2-21 01:42:15 | 只看该作者
    大黑蚊子 发表于 2025-2-20 23:53
    0 P, W- ?5 q7 l9 f  \# |& W我要是鼓捣这玩意儿,肯定是找二手硬件啥的,全新设备的价格那还是相当辣手的
    3 o, ?) Q0 Y, v# f  h打听了一下Intel的至强4代C ...

    % K" M) n6 v# `' D4 n& a. H"至强" 是 Xeon?

    点评

    对  发表于 2025-2-21 09:00
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    14 小时前
  • 签到天数: 3549 天

    [LV.Master]无

    17#
    发表于 2025-2-21 02:29:03 | 只看该作者
    大黑蚊子 发表于 2025-2-20 11:03) v6 y% j( n( z2 Z0 y
    玩啊,好奇啊,这很可能是通向新世界的大门
    2 h( h. \+ f/ Q/ _5 t有这个条件的话,干嘛不玩?

    " m% N/ Y2 ?, s/ c握手, 我也是,就是好奇。 也同样认为这是通向新时代的大门。
    回复 支持 反对

    使用道具 举报

    该用户从未签到

    18#
    发表于 2025-2-21 05:30:57 | 只看该作者
    在本地部署满血版的DeepSeek R1, 性价比太低了,还不如用各个云厂商的API。 自己学习,玩一玩用云API就好。至于本地部署的蒸馏R1,我试过各个版本包括70B的,效果都不好,和原版差太远。我自己玩着用本地部署的模型做了一个RAG应用,最后发现蒸馏R1还不如原版的QWen2.5 32B。
    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2025-8-7 11:56
  • 签到天数: 1132 天

    [LV.10]大乘

    19#
    发表于 2025-2-21 09:06:46 | 只看该作者
    xut6688 发表于 2025-2-21 05:30
    5 S+ I8 ]; W! Z8 G0 A, o* m# U在本地部署满血版的DeepSeek R1, 性价比太低了,还不如用各个云厂商的API。 自己学习,玩一玩用云API就好。 ...
    - ^; T  C4 T6 \; N! z) D# V6 x
    所以为啥盯着671B的版本呢,就是这个原因,其他版本的性价比其实都不好。' [+ G5 o* ~7 A, c8 v# b' ]. {4 |6 m
    # l- v2 z6 D: ~/ |
    目前有海量的本地部署满血版DeepSeek的需求,因为太多的数据受商业或者法规的限制不能上网,这个部署的整体过程是有很大市场需求的。
    5 ?- _+ z/ {" C1 B
    0 k; I2 {. C. m  B! ]8 B: wDS和KT的诞生,不是拉低了对算力的需求,而是通过降低成本做大了整体算力需求。6 U; L. z- ?  ]; _7 J0 \. c/ N' K

    ; Y; h# s1 w" f9 ~3 l而且部署过程中的调优和配参,踩过的坑,以及反复琢磨和资料学习的成果都是自己的。
    7 I( `7 a* v4 b. [) c# G# Y: j7 t" R5 ]* n  }! Z2 S
    再说了,都是二手硬件,搭完之后上闲鱼卖掉,亏不了多少钱

    评分

    参与人数 1爱元 +4 收起 理由
    唐家山 + 4

    查看全部评分

    回复 支持 反对

    使用道具 举报

  • TA的每日心情

    2025-8-7 11:56
  • 签到天数: 1132 天

    [LV.10]大乘

    20#
    发表于 2025-2-21 14:10:28 | 只看该作者
    沉宝 发表于 2025-2-21 00:16
    1 C4 A- w; |) r3 o这取决于对问题的理解和取舍。首先在大模型计算中,GPU的能力远远强于CPU,即使那个CPU有amx指令加速。所 ...
    . L  }; ?: ^' k7 N$ P# c
    我建议你再看一下KTransformers的相关资料
    4 U" h* ~: C( H& [4 U3 ^这个玩意儿的本质是在低并发(甚至是单并发)的情况下,高度依赖CPU/DRAM带宽,从而降低GPU需求的降本做法。  {0 k# T; c# |/ C1 W6 e" z7 L
    DDR5换DDR4的话,带宽砍半,对应token的数量就要起码减半
    8 v$ V: w! o, V- A$ TCPU的带宽再砍半的话,又要丢失速度& Z/ z. h7 M- j) N* O, [9 A
    如果CPU/DRAM带宽不够的话,甚至3090可能都喂不满,无限下降螺旋在降低成本的同时会极大影响使用效果( E* A$ z: M0 c7 f" r) A
    对于咱们来说,跑起来不是胜利,能够最低限度可用才是核心需求所在啊2 h9 t5 M" f3 k1 m4 b* j, F% ~' I/ l
    我觉得起码要搞个输出4-6token/s才行吧
    1 L$ V9 W  o0 h4 {- P% [0 K% a5 K按你这个方案我估计可能1-2token都悬
    回复 支持 反对

    使用道具 举报

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2025-8-22 14:04 , Processed in 0.042194 second(s), 19 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表