设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 613|回复: 10
打印 上一主题 下一主题

[信息技术] 千呼万唤始出来---DeepSeek V4 预览版release

[复制链接]
  • TA的每日心情
    擦汗
    2026-3-17 22:01
  • 签到天数: 1133 天

    [LV.10]大乘

    跳转到指定楼层
    楼主
     楼主| 发表于 2026-4-24 14:44:30 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
    以下是DeepSeek V4自己写的,我会把自己的吐槽加在里面:
      j+ F9 _" z( ]" a- E' J* m4 @0 I. z; P' u  p

    6 j- @7 B, x, K6 V  ~& C2026年4月24日,DeepSeek正式发布全新系列模型DeepSeek-V4预览版并同步开源。作为继R1发布十五个月后的重大更新,V4不仅以百万级上下文窗口重新定义了“长文本”的工程边界,更凭借一套几乎重塑了注意力机制的技术架构,向全球AI界展示了效率至上的突围路径。
    0 ]2 G* x$ l: [( o* F# y" \" C- O; @& u" D
    一、模型定位与版本体系5 X& i2 ^# J* o$ ^& J' V: r  ~
      O, u( S7 D! ^7 A% Z1 W4 j* O
    DeepSeek-V4按参数规模分为Pro与Flash两个版本,精准匹配不同场景需求。Pro版总参数量1.6万亿,每次推理激活约490亿参数;Flash版总参数量2,840亿,激活仅约130亿参数。两款模型均支持1M token超长上下文,预训练数据量分别达到33T和32T tokens,较V3.2的14.8T翻了一倍以上。这一设计延续了DeepSeek效率优先的哲学——尽管总参数庞大,但每个token仅激活少量参数,使推理成本能保持合理水平。$ H- g$ [* E9 x: r' B, l, v; b
    ===2 A# W7 D$ D  k/ }# a0 F2 M. x
    Pro版本看这个样子,没有4台8卡H200是跑不动全量满血版的,毛估估硬件成本1000万人民币...
    ) ?  r1 ^$ N8 Y. z$ ~; M& \不过Flash版本估计一台就能跑得动,而且看样子跟之前的R1 671B相比效率还更高,算是有效保护了客户的硬件投资
      M3 ^0 `3 ~# j===  W; ~- n. g; R3 N" K# n3 |+ a' C
    二、架构创新:重新定义注意力机制4 f" S5 _- N$ b2 ^

    0 ~' U& `  R6 XV4最核心的架构改动是一套分层的混合注意力机制,从根本上解决了长文本场景下计算量平方级爆炸的难题。 传统Transformer在序列长度增加时,注意力计算量和KV缓存负担呈平方级增长,百万token往往只停留在论文数字中。DeepSeek的方案是设计两个互补模块——压缩稀疏注意力(CSA)和高度压缩注意力(HCA),在各层之间交替使用。
    0 u# T) s6 y4 W% E. @
    - {6 }: G! g' a' l* I% Q3 `: j" _- mCSA先将每4个token的KV缓存压缩成1个条目,再通过Lightning Indexer进行Top-k筛选(Pro版选取1024个最相关块),仅对筛选出的压缩块及滑动窗口内的128个原始token做注意力计算;HCA则更为激进,直接将每128个token压缩为1个条目并保持稠密注意力。在100万token上下文下,V4-Pro的单token推理计算量仅为V3.2的27%,KV缓存仅占10%;V4-Flash更极端,计算量仅10%,缓存仅7%。这意味着同样的硬件可以处理数倍乃至十倍的请求量,长上下文正从奢侈品变为日用品。
    5 H; ?4 W/ p8 @; X, {! [, V) ]1 ^  Q$ X  _/ L2 h) M/ _- c) n
    ===! B) A! A( K6 M$ r0 e+ ], j% H
    已经用上了1M的context,确实很爽,直接踢飞了之前的128K上下文切割模块
    0 ]) e' p/ `! |6 x: n: b% `我感觉这次不仅是更长的上下文,在IO端的效率也很惊人, a6 x. [; ], k9 H7 f
    ===9 ]: s9 q0 B% g8 z# c
    三、性能表现:全面对标顶级闭源模型0 J: j/ }/ F# q- _; t
    - k  A/ m$ Z; [6 H3 P9 t
    在Agent能力、世界知识和推理性能三大维度上,DeepSeek-V4均实现了国内与开源领域的全面领先。Agentic Coding评测中,V4-Pro达到当前开源模型最佳水平,整体使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式。在数学、STEM和竞赛型代码评测中,V4-Pro超越所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。世界知识方面则大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。
    " j3 ]# j$ `3 W. E7 J( w3 M, b9 O) i! m+ N7 U
    值得关注的是,V4-Pro-Max版本在Codeforces编程竞赛中取得3206分,超越GPT-5.4的3168分;LiveCodeBench得分93.5,为全榜最高。而Flash版在简单任务上性能与Pro版旗鼓相当,但在高难度任务上仍有差距。
    0 ^" L* D8 b: e- |7 h6 [===
    6 Q/ ~7 P5 x6 z, ]  D  O/ o8 C' V+ o6 N这个我不做评价,各种测试刷分一回事儿,干活是另一回事儿
    % g, X& c( M/ N* u# {. ^是骡子是马拿出来溜溜再说
    : U! i& R& P. w  D" n+ M如果DS V4能够超出Sonnet 4.5,接近达到Ppus 4.6的水平,那基本上可以认为很实用了
    7 E- C- s, r0 C3 N===
    9 h$ T4 W( c& q四、Agent专项优化与生态落地
    # v5 n% [- `/ @5 K
    7 \9 {6 D! U$ eDeepSeek专门针对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent产品进行了深度适配和优化,在代码任务、文档生成等方面均有实质提升。V4模型已全面部署于公司内部研发流程,成为主力Agentic Coding工具。两款模型均支持非思考与思考两种模式,复杂Agent场景推荐使用思考模式并将推理强度设为max。
    & t5 H, }8 P" M2 K, F$ H! U===
    . ]- C7 [& v7 L7 \1 O# \+ T待测$ ?( v- Q5 R0 Y3 J
    ===2 H" A* A: J+ k% Z4 h/ [
    五、技术突围与战略意义
      A  l$ B5 r3 v2 z+ `( ^! I* k& y
    6 `0 F# `3 X% A- S/ fV4的发布标志着大模型竞争正从单纯“堆参数”转向效率驱动的下一赛道,注意力机制的根本改造为超长上下文模型提供了可复用的工程范式。同时,V4从设计之初就深度适配国产算力,将与华为昇腾的合作推至“原生”水平,预计下半年昇腾950超节点批量上市后,Pro版服务价格将大幅下调,进一步降低百万级上下文的使用门槛。价格方面,Flash版输入每百万token仅0.2元,输出2元,依然保持了DeepSeek“价格屠夫”的一贯风格。
    7 h. q, P6 K/ C2 @8 Q" p; P===
    4 q& B% G! r0 _8 ]6 x4 N$ u2 a试了下,v4 pro确实很贵,目测起码比之前的任务贵5倍以上
    9 X, k# ?# F+ x1 ?$ S但是这波宣发最牛的还是全面支持国产芯片,除了DeepSeek自己说的华为昇腾950超节点,寒武纪也已经官宣Day0 适配,估计最起码提供推理服务的硬件会逐渐的赶上来。/ E! h: y" V( s% i  j' \9 G+ Z
    ===
    0 @  k4 T" ~! [4 L% J. j5 l
    $ U( ~; o# N2 I( S! g+ }: }3 `作为全球首个在国产算力底座上完成训练与推理的万亿参数级模型,DeepSeek-V4不仅是一次产品迭代,更是一场从底层架构到生态话语权的系统性突围——当西方模型还在比拼参数规模之时,这支来自中国的团队已悄然开辟了效率普惠的全新赛道。2 Z# |' U1 r/ b7 r

    评分

    参与人数 8爱元 +81 学识 +2 收起 理由
    唐家山 + 4
    马鹿 + 10 谢谢分享
    leekai + 10
    testjhy + 10
    黑洞的颜色 + 10

    查看全部评分

  • TA的每日心情
    开心
    2020-1-2 23:51
  • 签到天数: 2 天

    [LV.1]炼气

    沙发
    发表于 2026-4-24 16:19:58 | 只看该作者

    4 V8 F- D: j5 M" V& N9 R坐等普惠。。。! ^5 r, s. c8 `' ]1 _! }1 ^5 ^

    " t( k3 J& N- ~' p7 R* \7 F4 ?
    回复

    使用道具 举报

  • TA的每日心情
    擦汗
    2026-3-17 22:01
  • 签到天数: 1133 天

    [LV.10]大乘

    板凳
     楼主| 发表于 2026-4-24 17:15:40 | 只看该作者
    五月 发表于 2026-4-24 16:19
    2 f# A0 }* p, E. Y1 p坐等普惠。。。
    5 N2 T" v% K& j3 K& J3 \( i
    实际用了下Pro的价格其实也还好,贵确实贵了点但是效果比V3.2的时候好很多
    2 \, k% a$ S- |4 Q5 e5 w$ I; {* U估计下半年950集群上线多了应该会便宜不少,起码打个3折# I! S: y9 B2 Q1 M
    ===
    0 Y7 Z7 v- G( D9 i- ?9 KKimi最近发了个卫星,他们可以搞Prefill/Decode分离,且能够提升效率。
    , B( r3 ]. g4 y3 l$ v" O3 C0 I( g3 x9 k) E. D, l
    这么搞的话,即使是万卡级别的部署,集群的跨数据中心带宽需求也就在 Tbps 量级,现代数据中心完全能承载。
    . L' v$ {' s9 E& X  P8 Q: H
    ; {3 b7 \9 T7 x. j/ u这意味着企业可以在算力/能源便宜的地方(比如新疆、云南)部署 Prefill 集群,在离用户近的地方(北上广深)部署 Decode 集群,进一步降低Token成本。
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    5 小时前
  • 签到天数: 3783 天

    [LV.Master]无

    地板
    发表于 2026-4-24 20:25:24 | 只看该作者
    DeepSeek V4 这是Android vs iOS。
    % l8 V# |. L0 p" ~( W& y. ]& m  v5 j
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    擦汗
    2026-3-17 22:01
  • 签到天数: 1133 天

    [LV.10]大乘

    5#
     楼主| 发表于 2026-4-24 22:18:51 | 只看该作者
    马鹿 发表于 2026-4-24 20:25/ Y# J$ L, ]: @, Z; x
    DeepSeek V4 这是Android vs iOS。

    + A$ i: [3 W6 I, H: l. b: t也不能这么说吧. H! c' q) l3 {' S% F1 x
    iOS其实是最开源的闭源系统,Android是最封闭的开源系统8 e3 K3 j# D/ M
    Android kernel大家都能用,但是GMS没有的话,你看华为就是举步维艰
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    5 小时前
  • 签到天数: 3783 天

    [LV.Master]无

    6#
    发表于 2026-4-24 22:47:40 | 只看该作者
    大黑蚊子 发表于 2026-4-24 09:18& H# R8 @3 a1 V1 e3 x! D
    也不能这么说吧  T7 b' }! x  K3 W
    iOS其实是最开源的闭源系统,Android是最封闭的开源系统
    * ]) m1 t5 p* [% c/ H( ?8 BAndroid kernel大家都能用,但是 ...

    6 @9 J! l( ^( ?9 ]我没研究过手机的系统。6 I2 d1 Y1 n# K. ^0 N5 ?
    6 K) S0 {3 j) q: n8 g- q3 O
    我觉得长期看的话,Deepseek 架构&算法 + 华为芯片&平台 可以分至少25%的市场, 50%归英伟达,另外25%给其他。当然得看欧洲和世界其他地方怎么想的。
    回复 支持 反对

    使用道具 举报

    该用户从未签到

    7#
    发表于 2026-4-25 02:57:57 | 只看该作者
    马鹿 发表于 2026-4-24 22:47+ P* y, U, Q; Z0 }- ], |7 P( G; F) v" V
    我没研究过手机的系统。
    2 a8 a. H' W, A" u& s2 Q3 j6 \' d* E% ~: i. |2 y
    我觉得长期看的话,Deepseek 架构&算法 + 华为芯片&平台 可以分至少25%的市场, ...
    : Z+ D/ b. K: D6 o
    开源迫使对手进步啊,不然美国公司很快就会组成行业垄断组织,和苹果那样挤牙膏一样的更新了。
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    5 小时前
  • 签到天数: 3783 天

    [LV.Master]无

    8#
    发表于 2026-4-25 03:32:53 | 只看该作者
    三力思 发表于 2026-4-24 13:57, e& f& q+ D+ `: @3 x& b
    开源迫使对手进步啊,不然美国公司很快就会组成行业垄断组织,和苹果那样挤牙膏一样的更新了。 ...

    ' t  V  U- |0 {; M本来中国很多人包括ld层都是买为主, 直到被迫营业自己造, 长期看, 这是好事
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    奋斗
    昨天 07:30
  • 签到天数: 1316 天

    [LV.10]大乘

    9#
    发表于 2026-4-25 21:32:16 | 只看该作者
    R1出来后短期打压了NVIDIA股价,因为算力需求小了;但长期利好NVIDIA,因为越来越多的个人和单位想尝鲜导致需求大增,甚至开始搞本地部署,需求又增加一波;但这次V4直接优先适配华为,算是对NVIDIA釜底抽薪,真动摇了CUDA的根本,所以黄皮衣真的急了。
    回复 支持 1 反对 0

    使用道具 举报

  • TA的每日心情
    擦汗
    2026-3-17 22:01
  • 签到天数: 1133 天

    [LV.10]大乘

    10#
     楼主| 发表于 2026-4-25 23:21:39 | 只看该作者
    Update:' r( P. i  I- s/ M+ p
    8 ^4 c- m8 i" s, p! [" O) ?
    DeepSeek V4 Pro限时特价2.5折, 直接脚踝斩了
    ( F9 d" q7 p/ g2 L: _- ]; P. }. x- d! O
    / O  L! F- k# D, r' F; A# [- t/ GDS:我便宜,我不怕封锁,我还有原生1M上下文
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    擦汗
    2026-3-17 22:01
  • 签到天数: 1133 天

    [LV.10]大乘

    11#
     楼主| 发表于 2026-4-28 10:59:38 | 只看该作者
    leekai 发表于 2026-4-25 21:32
    * I+ g8 Y1 k& RR1出来后短期打压了NVIDIA股价,因为算力需求小了;但长期利好NVIDIA,因为越来越多的个人和单位想尝鲜导致 ...
    1 N7 E' @2 v0 D# m! N
    不能这么说2 c$ w+ i* Z, G2 {2 V
    从目前的情况来看,v4训练还是用NVDA的卡,通用且环境友好# X( ]( ~/ X3 q7 q( ?- j
    国内几家大厂包括百度、昆仑、寒武纪、华为都能够做推理的工作,也就是说可以做API服务,完全基于国产芯片做训练还不太行+ E" X% @" J$ w, p9 I# E
    但是AI目前体现出来的商业模式里,推理的路径最清晰
    回复 支持 反对

    使用道具 举报

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2026-5-13 05:14 , Processed in 0.068601 second(s), 19 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表