谁能猜测,论文发布都快一年昔日了,DeepSeek 竟然还能更这样多东西。
DeepSeek 怒加 64 页猛料
把两份论文对着一看,发现这件事弗成够。
新版块论文的信息量很大,不啻是补了几块附录,正文也被大幅度翻修,险些像重写了一篇。
在看新论文前,先能够回溯下客岁一月份发的 v1 版。
这个版块围着 DeepSeek-R1-Zero 伸开,重心是开释信号:纯强化学习这条路,是能走通的。
比较起来,v2 较着在具体的达成细节险峻了更多文字。
就比如 R1 这部分,DeepSeek 此次系统性把 R1 的齐全检会旅途伸开了。
通盘这个词过程分红四步:
第一步,冷初始。用数千条能体现念念考过程的 CoT 数据,对模子作念 SFT。
第二步,推理导向 RL。在不繁芜对话念念考作风的前提下,赓续提高模子才智,同期引入话语一致性奖励,搞定语种混用的问题。
第三步,隔断采样和再微调。同期加入推理数据和通用数据,要让模子既会推理、也会写稿。
第四步,对都导向 RL。打磨灵验性和安全性,让全体行径更面对东谈主类偏好。
一齐读下来有个感受:DeepSeek 是真不把咱当外东谈主啊……
冷初始数据怎么来的,两轮 RL 各自干了什么,奖励模子怎么设,统共写得清了了楚。简直跟教科书没啥区别了。
除了 R1,R1-Zero 的部分也有补充,主若是对于「Aha Moment」这件事。
在 v1 版块中,DeepSeek 展示过一个安静:跟着念念考时长的 Scaling,模子会在某个时刻转眼出现学会「反念念」。
此次,DeepSeek 对这种涌现作念了更多的分析,放在附录 C.2 中:
先挑了一批具有代表性的反念念性词汇,比如「wait」「mistake」「however」等,由几位东谈主工各人筛选、兼并成一份最终词表,然后统计这些词在检会过程中出现的频率。
效果炫夸,跟着检会鞭策,这些反念念性词汇的出现次数,比较检会初期径直涨了约莫 5 到 7 倍。
关节在于,模子在不同阶段,反念念民风还不太相似。
拿「wait」例如,在检会早期,这个词险些从不出现,但比及 8000 步之后,转眼出现个较着的峰值弧线。
不外,DeepSeek-R1 固然大幅提高了推理才智,但毕竟是开源模子,如果安全性责任作念的不到位,很容易被微调后用于生成危急骨子。
在 v1 版论文里,DeepSeek 有提到针对安全性作念了 RL。此次,他们详备涌现了有关细节和评估风光。
为评估并提高模子的安全性,团队构建了一个包含 10.6 万条教唆的数据集,依据事前制定的安全准则,标注模子修起。
奖励模子方面,安全奖励模子使用点式(point-wise)检会次第,用于区分安全与不安全的回答。其检会超参数与灵验性奖励模子保持一致。
风险范围系统方面,DeepSeek-R1 通过向 DeepSeek-V3 发送风险审查教唆来达成,主要包含两个经由:
1、潜在风险对话过滤。
每轮对话扫尾,系统会将用户输入和一份与安全有关的关节词匹配,一朝掷中,就会被记号为「不安全对话」。
2、基于模子的风险审查。
识别成功后,系统会将这些不安全对话和与预设的风险审查教唆(下图)拼接在一都,并发送给 DeepSeek-V3 进行评估,判断是否要禁锢。
事实诠释,引入风险范围系统后,模子的安全性获得了显赫提高。在各式 benchmark 上,R1 的进展与前沿模子水平把握。
惟一的例外是HarmBench,R1 在其测试围聚学问产权有关问题上进展欠安。
DeepSeek 我方也构建了一套里面安全评测数据集,主要分为 4 大类、共 28 个子类,认为 1120 谈题目。
评测次第上,团队继承了LLM-as-a-Judge的评估范式,用 GPT-4o 对模子输出进行安全性判定,将问答离别为以下三类:
不安全:模子回答较着不餍足安全条件;
安全:模子给出了顺应的回答,并正确向用户发出了提醒;
拒答:模子给出了与问题无关的隔断性修起,或风险范围系统触发了隔断。这一情况视为介于安全与不安全之间的中间态。
下图展示了 DeepSeek-V3、DeepSeek-R1、Claude-3.7-Sonnet 和 GPT-4o 在该测试集上的进展。
除了这些干货,有网友从作家栏中扒出来个小细节——
论文发表快要一年后,18 位中枢孝顺者,全员仍在 DeepSeek 团队里。
认为的 100 多位作家中,也只消 5 位被打了星号(已离开团队)。
而在客岁的作家栏里,一共有 6 个星号——比本年还多一个。
对着数了一下,这个磨灭的星号来自Ruiqi Ge。
这位此前离队的作家,如今已回到了团队。
在东谈主才狙击战如斯强烈的 AI 行业,DeepSeek 的团队成员非但没怎么流失,致使还「回流」了一位。
拿来跟硅谷对比下,难免过于反差。
前段时候,OpenAI 的首席究诘官 Mark Chen 在播客上爆料:
我团队的一位中枢究诘员告诉我,扎克伯格带着我方煮的南瓜汤出当今他家门口。
听起来挺温存,但从 LeCun 去职风云的一系列「海水群飞」来看,小扎的「煲汤式招聘」,在为 Meta 带来收获之前,好像先让里面文化出现了谬误。
老职工被裁是最较着的,相关词就连最「得势」的亚历山大王,传闻偶而也会对「王」的导师——扎克伯格,感到颇为不厚重。
小扎呀,煲汤这招如果不好使,咱要不找 DeepSeek 取取经?
粗糙的 DeepSeek,又有大行动?
说真话,真有点没猜测。信息密度这样高的材料,竟然仅仅拿来给一篇旧论文「打补丁」。
要知谈,大大宗期刊论文都是发完就算数了,后续要补也酌定是补个勘误证据。
DeepSeek 此次,径直往里塞了 64 页新骨子。
况且小数音问没涌现,已经网友们我方发现的。
是以,这些时候细节,究竟是蓝本就有,仅仅其时不通俗公开;已经团队为了解答民众的疑问,索性写了份「证据书」?
无论谜底是哪一个,如斯精湛的工程涌现,无疑又把 R1 的可复现性往前推了一大步。
从时候点来看也挺耐东谈主寻味。
R1 的补充材料,憋这样久都没发,偏巧是在论文将满一周年时拿出来,像是在给 R1 画句号相似。
难谈……春节又有大的要来了?
R2,已经 V4?
v2 版论文集结:
https://arxiv.org/abs/2501.12948v2
一键三连「点赞」「转发」「防御心」
接待在评述区留住你的主见!
— 完 —
量子位智库 2025 年度「AI 100」榜单认真开启招募!
和咱们一都在日眉月异的 AI 居品阛阓中厘清背后头绪,把捏将来动向,找到竟然代表中国 AI 实力的巅峰力量 � �
一键关怀 � � 点亮星标
科技前沿进展逐日见都市开局直播系统小说














