设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 1749|回复: 4
打印 上一主题 下一主题

[信息技术] DeepSeek有可能从ChatGPT蒸馏而得吗

[复制链接]

该用户从未签到

跳转到指定楼层
楼主
 楼主| 发表于 2025-1-29 01:59:02 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 晨枫 于 2025-1-28 17:57 编辑 7 Y6 q  `* P: W/ j

- v9 }& D8 f; A8 IDeepSeek在12月推出v3,已经够惊艳,超出预期。一个月后,推出R1,直接掀翻了AI的世界。! e' X4 j2 ]  `
$ Q  p# K7 B( f# M+ l
当然,肯定有人要急着为DeepSeek找爹,“蒸馏说”就是这样产生的。
" z2 ~. E7 r/ ^$ B
% R# w# ^6 J9 @5 L如果理解没有错误,“蒸馏说”是指DeepSeek以Chat GPT为参照模型,首先用大量的输入数据激励ChatGPT,得到输出,然后把这作为数据集,用于训练DeepSeek。5 M" P: J% N# \, R3 _

# n, J# m( G+ f0 f% E4 ]这节约了海量搜取原始数据的难题,也大大简化了语言信息的数据化工作。
% G! H$ r0 q- K
# v' @& ?8 {7 E- o) J这样的抄近路是有可能的。在工程上,模型降阶常常就是这么做的,但也是有条件的。
9 a5 b* m" V7 a3 V+ A/ \, L8 I2 z( \4 G) X- M; ^
这些都是小模型,输入的性质和数值范围都很明确,不管是“打格子”还是随机产生输入数据,都容易。而且有足够的数值方法可以保证“数据密度”,不会出现过分的疏漏。
2 N8 j, _8 v- j# t4 ^, f, W# K* a: F0 |1 k8 ]( O$ x7 @
但通用大模型没法这么做。首先是不可能确定ChatGPT的输入范围。或者说,那就是整个“已知人类公域知识”,有本事把这样的输入集搞齐全了,已经把Chat GPT的data scrubbing做完了。data scrubbing不知道怎么翻译,这是把公域数据全部梳理一遍,吸收进来,包括公开出版物和网络数据。
+ V( f& q( G1 z6 J6 o5 E
0 P  m! U/ d6 W& y* m也就是说,DeepSeek可以把自己的大模型“蒸馏”成小模型,但没法把别人的大模型“蒸馏”成自己的模型。4 O: H3 J" K/ |' z, P. E% ^) k
; G0 _5 A) ?$ R% Z* j
第二点是推理过程,这是DeepSeek有别于几乎所有主流大模型的地方,肯定是ChatGPT没有的地方。“蒸馏”只能是降低分辨率的复现,原来的模型没有的数据,“蒸馏”是变不出来的。做习题时直接抄答案,但老师要求写中间步骤,就抓瞎了。一样的道理。( {) K! O% k8 m
* e$ E0 x8 H, @; w
第三点:DeepSeek在一些方面超过ChatGPT,这就更不可能从“蒸馏”中得到了。针对性加强可以解释,但如何确定针对性的范围又是一个问题。
7 K& F, F  N; V6 Z4 Q; s6 S5 k0 N* R7 ^% }3 R/ o4 d; n
最基本的一点还是第一点:DeepSeek不可能获得ChatGPT的原始输入集,没法“蒸馏”。

评分

参与人数 5爱元 +53 学识 +2 收起 理由
老票 + 12 + 2
常挨揍 + 15
唐家山 + 4
helloworld + 10
wbxy436 + 12

查看全部评分

本帖被以下淘专辑推荐:

该用户从未签到

沙发
发表于 2025-1-29 02:59:15 | 只看该作者
DeepSeek以主流大模型为基础,但在具体算法上有很大的提升。打个比方,美国公司发现了事物可数性(从不数数到数数是动物进化到人的一个重要里程碑),但在具体数数时1、2、3、4,而DeepSeek呢,二五一十……
回复 支持 反对

使用道具 举报

该用户从未签到

板凳
发表于 2025-1-29 06:29:16 | 只看该作者
微信转了DS论文的分析,小创新很多,把各个方面小创新组合起来得到奇迹般的结果意味着这些论文中列举的创新只是他们所有创新的一部分。不需要听一些人瞎BB
回复 支持 1 反对 0

使用道具 举报

该用户从未签到

地板
发表于 2025-1-29 08:41:06 | 只看该作者
关于DS,我只看硅谷大佬评价和华尔街的真金白银。
回复 支持 反对

使用道具 举报

该用户从未签到

5#
发表于 2025-2-1 01:41:10 | 只看该作者
不是从 ChatGPT 蒸馏的,但 DeepSeek R1 的确有几个官方蒸馏版。! M& o( S8 I7 f$ u# {
" d+ b/ `, `: [

' x; L% N9 c6 p2 ?8 r" }
3 {' j" V) Z( o( X" }- S' ~4 z" q4 K, {6 U" ~* P/ J
从 Huggingface 的 DeepSeek R1 主页介绍(https://huggingface.co/deepseek-ai/DeepSeek-R1) 看,主要是结合了通义千问(Qwen,阿里的大模型)或 Llama (羊驼,Meta 的大模型)
$ W: S0 H" I# F, ?+ P  ?7 u) c4 ?  @
+ }, A, ?: F7 ~9 X4 l0 ]从性能上讲,DeepSeek-R1-Distill-Llama-70B 在六项指标中有五项超过 GPT 和 Claude 的同类模型。而这个模型是可以在个人计算机/工作站的本地运行的。(当然,测试不是在 PC Workstation 上做的)。俺在 local 试了一下,除了文言文和作诗不如在线版本外,基本各项功能都不错。
3 I0 o) r7 a6 a3 U+ ?4 f& W5 K
2 q% Y! C) _$ m% L. b
回复 支持 反对

使用道具 举报

手机版|小黑屋|Archiver|网站错误报告|爱吱声   

GMT+8, 2025-10-26 16:29 , Processed in 0.032463 second(s), 23 queries , Gzip On.

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表