设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 97|回复: 3
打印 上一主题 下一主题

[信息技术] 千呼万唤始出来---DeepSeek V4 预览版release

[复制链接]
  • TA的每日心情
    擦汗
    2026-3-17 22:01
  • 签到天数: 1133 天

    [LV.10]大乘

    跳转到指定楼层
    楼主
     楼主| 发表于 6 小时前 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
    以下是DeepSeek V4自己写的,我会把自己的吐槽加在里面:
    % m4 {' D2 E0 {& P/ E8 {  P& y8 @, Y' `7 M
    , ?+ J: u2 i' R* ?$ v; _+ a9 l
    2026年4月24日,DeepSeek正式发布全新系列模型DeepSeek-V4预览版并同步开源。作为继R1发布十五个月后的重大更新,V4不仅以百万级上下文窗口重新定义了“长文本”的工程边界,更凭借一套几乎重塑了注意力机制的技术架构,向全球AI界展示了效率至上的突围路径。2 H( U- B; N  O" y2 \

    7 q0 M+ I% R  s. x  M5 r: d一、模型定位与版本体系+ {3 ]% r5 u# f- W' G9 O0 G
    , p& X$ {  w! Q8 `9 `/ t% y9 Z3 F
    DeepSeek-V4按参数规模分为Pro与Flash两个版本,精准匹配不同场景需求。Pro版总参数量1.6万亿,每次推理激活约490亿参数;Flash版总参数量2,840亿,激活仅约130亿参数。两款模型均支持1M token超长上下文,预训练数据量分别达到33T和32T tokens,较V3.2的14.8T翻了一倍以上。这一设计延续了DeepSeek效率优先的哲学——尽管总参数庞大,但每个token仅激活少量参数,使推理成本能保持合理水平。
    ; A) @* |" X  h: P0 l0 a/ `===
    5 p- w0 P8 D: G( }Pro版本看这个样子,没有4台8卡H200是跑不动全量满血版的,毛估估硬件成本1000万人民币...
    ; i% M' H1 r  h. O不过Flash版本估计一台就能跑得动,而且看样子跟之前的R1 671B相比效率还更高,算是有效保护了客户的硬件投资
    8 T8 O" c+ a* R  Q. n5 O' n" s( u===
    0 _  y6 W+ l# ?- D  s6 o9 G' E二、架构创新:重新定义注意力机制/ @( {/ _* z* [
    ( y% @2 \. G( U4 L! t4 A2 ~
    V4最核心的架构改动是一套分层的混合注意力机制,从根本上解决了长文本场景下计算量平方级爆炸的难题。 传统Transformer在序列长度增加时,注意力计算量和KV缓存负担呈平方级增长,百万token往往只停留在论文数字中。DeepSeek的方案是设计两个互补模块——压缩稀疏注意力(CSA)和高度压缩注意力(HCA),在各层之间交替使用。9 {. I% W( [: Q) i% s
    ( [/ ~! P+ y7 J8 c+ f
    CSA先将每4个token的KV缓存压缩成1个条目,再通过Lightning Indexer进行Top-k筛选(Pro版选取1024个最相关块),仅对筛选出的压缩块及滑动窗口内的128个原始token做注意力计算;HCA则更为激进,直接将每128个token压缩为1个条目并保持稠密注意力。在100万token上下文下,V4-Pro的单token推理计算量仅为V3.2的27%,KV缓存仅占10%;V4-Flash更极端,计算量仅10%,缓存仅7%。这意味着同样的硬件可以处理数倍乃至十倍的请求量,长上下文正从奢侈品变为日用品。
    8 B$ }: {# m- W3 U7 Y4 q
    $ n7 E* s: J' r0 l4 o- r7 k===* X* |4 ?' ?, e" g
    已经用上了1M的context,确实很爽,直接踢飞了之前的128K上下文切割模块
    : @' ^9 E# C7 q8 [4 U: v' i; O我感觉这次不仅是更长的上下文,在IO端的效率也很惊人6 _' {$ {( a3 g) S' L% I
    ===
    6 N2 q/ `6 N  H" y! ]4 l- \三、性能表现:全面对标顶级闭源模型% ]) J& Y8 X2 T  u5 g
    - r% O$ v. J/ x( a8 r$ @6 {! Z" {
    在Agent能力、世界知识和推理性能三大维度上,DeepSeek-V4均实现了国内与开源领域的全面领先。Agentic Coding评测中,V4-Pro达到当前开源模型最佳水平,整体使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式。在数学、STEM和竞赛型代码评测中,V4-Pro超越所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。世界知识方面则大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。
    ; w8 k) j# L6 [9 q
    . D) o& {) A, b& ]! y8 ^: i值得关注的是,V4-Pro-Max版本在Codeforces编程竞赛中取得3206分,超越GPT-5.4的3168分;LiveCodeBench得分93.5,为全榜最高。而Flash版在简单任务上性能与Pro版旗鼓相当,但在高难度任务上仍有差距。0 b* p+ J+ o/ X2 w8 P7 y
    ===; `% V; j- k; U' R# Z  @4 `+ _
    这个我不做评价,各种测试刷分一回事儿,干活是另一回事儿- P+ s' M& X: }: ?; }9 r$ f. C
    是骡子是马拿出来溜溜再说  E6 H* a/ r  R* g9 J
    如果DS V4能够超出Sonnet 4.5,接近达到Ppus 4.6的水平,那基本上可以认为很实用了$ E' D7 L! {5 \% q
    ===7 J# o7 m0 Z0 s
    四、Agent专项优化与生态落地* g" s4 F2 Q) t4 n1 o4 s

    * V5 p" n4 n, t, H- Q9 qDeepSeek专门针对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent产品进行了深度适配和优化,在代码任务、文档生成等方面均有实质提升。V4模型已全面部署于公司内部研发流程,成为主力Agentic Coding工具。两款模型均支持非思考与思考两种模式,复杂Agent场景推荐使用思考模式并将推理强度设为max。& K, j6 d* x5 S
    ===
    ' Y$ A2 C: i! L  U, N. s待测
    ! k: K0 y9 ~) C; z5 Z===: \6 ]0 p: X6 `6 v) Q, Q  ]/ V
    五、技术突围与战略意义1 q2 P5 F7 }0 v! b
    , X( \. E2 T0 J  [  E) K
    V4的发布标志着大模型竞争正从单纯“堆参数”转向效率驱动的下一赛道,注意力机制的根本改造为超长上下文模型提供了可复用的工程范式。同时,V4从设计之初就深度适配国产算力,将与华为昇腾的合作推至“原生”水平,预计下半年昇腾950超节点批量上市后,Pro版服务价格将大幅下调,进一步降低百万级上下文的使用门槛。价格方面,Flash版输入每百万token仅0.2元,输出2元,依然保持了DeepSeek“价格屠夫”的一贯风格。$ g& H0 b' R; G( R
    ===
    - W# a+ `* ~& b9 ?; P9 ]6 `3 p试了下,v4 pro确实很贵,目测起码比之前的任务贵5倍以上2 v: ^( o; l$ q9 Z# B/ A* J! A
    但是这波宣发最牛的还是全面支持国产芯片,除了DeepSeek自己说的华为昇腾950超节点,寒武纪也已经官宣Day0 适配,估计最起码提供推理服务的硬件会逐渐的赶上来。$ ]' c/ S6 X; }! w# g
    ===
    ) I# b. w; z' {8 |9 |/ q3 f+ O) v; s* \9 H: ^
    作为全球首个在国产算力底座上完成训练与推理的万亿参数级模型,DeepSeek-V4不仅是一次产品迭代,更是一场从底层架构到生态话语权的系统性突围——当西方模型还在比拼参数规模之时,这支来自中国的团队已悄然开辟了效率普惠的全新赛道。
    3 Y7 d7 T3 Z" K' l% H) g0 z

    评分

    参与人数 4爱元 +47 学识 +2 收起 理由
    黑洞的颜色 + 10
    mezhan + 10
    常挨揍 + 15
    老票 + 12 + 2 伙呆了

    查看全部评分

  • TA的每日心情
    开心
    2020-1-2 23:51
  • 签到天数: 2 天

    [LV.1]炼气

    沙发
    发表于 5 小时前 | 只看该作者

    & K3 x/ Q6 [! k. i' f( K坐等普惠。。。+ i# i0 J- U7 H, o

    - ^- E* b7 c# C2 I; O- ^2 Z
    回复

    使用道具 举报

  • TA的每日心情
    擦汗
    2026-3-17 22:01
  • 签到天数: 1133 天

    [LV.10]大乘

    板凳
     楼主| 发表于 4 小时前 | 只看该作者
    五月 发表于 2026-4-24 16:19$ l& U; s9 X  x, J' X( O
    坐等普惠。。。
    % _6 M6 M) J$ N: L
    实际用了下Pro的价格其实也还好,贵确实贵了点但是效果比V3.2的时候好很多" z/ X, w; O( u3 _2 D3 W# Q
    估计下半年950集群上线多了应该会便宜不少,起码打个3折
    & A% W6 w: D$ t. N4 G5 s! X# r===
    5 [/ V, o# l! V$ u& NKimi最近发了个卫星,他们可以搞Prefill/Decode分离,且能够提升效率。4 k) }& S6 {' C% S7 x4 `  O

    ; q/ n+ v) D, L$ M* I5 e; `# h这么搞的话,即使是万卡级别的部署,集群的跨数据中心带宽需求也就在 Tbps 量级,现代数据中心完全能承载。
    5 r9 S  _% l8 a3 {8 ?: ?% `  g2 c5 J7 i/ {. `" F/ _. x
    这意味着企业可以在算力/能源便宜的地方(比如新疆、云南)部署 Prefill 集群,在离用户近的地方(北上广深)部署 Decode 集群,进一步降低Token成本。
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    20 小时前
  • 签到天数: 3764 天

    [LV.Master]无

    地板
    发表于 1 小时前 | 只看该作者
    DeepSeek V4 这是Android vs iOS。
      X! w: Y" ^: E+ p! B/ N/ A9 q6 Q) K- U( m/ _
    回复 支持 反对

    使用道具 举报

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2026-4-24 21:29 , Processed in 0.063139 second(s), 18 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表