刚刚,DeepSeek最新发文!V3R1训练细节全公开,信息量巨大
【新智元导读】新规第一天,DeepSeek第一时间站出来了!接下来,所有自家AI生成内容,统统标出「AI身份」。更劲爆的是,DeepSeek主动「交底」V3/R1的模型训练细节。
刚刚,DeepSeek官微发布了最新回应公告——凡是AI生成的内容,都会清楚标注「AI生成」。
DeepSeek主要介绍了大模型的训练和推理阶段,包括预训练、优化训练(微调)以及训练数据等。
模型训练阶段即模型的开发阶段:通过设计好的深度神经网络架构和训练方法,开发人员开发出可被部署使用的模型。
模型由多层神经网络组成,不同的架构直接影响模型的性能。此外,模型性能也受参数规模的制约,而训练的目的就是找到具体的参数值。
目前,大模型的参数规模数以亿计。最新的DeepSeek-V3-0324,参数总量为6850亿。
优化训练:也称为微调,是在预训练模型的基础上通过特定任务的数据进一步调整模型参数,使模型适应实际应用场景。
在预训练阶段,模型通过大规模自监督学习,从文本数据中学习语言模式与知识关联。预训练完成后,模型能理解并生成连贯的文本,但还不会精准地回答问题或执行任务,因此需要进一步的训练微调。
在优化训练阶段,模型一般通过SFT、RL等方法,学会根据指令回答问题,符合人类的偏好和需求,并激发在特定领域的专业能力。
需要强调的是,在此阶段,根本无需获取个人信息用于训练,DeepSeek不会有意关联至任何特定账户和个人,更不会主动将其用于训练模型。
DeepSeek这次表示:这些问答对数据是由研究团队生成提供的,其中少部分数据的构造可能会基于用户的输入。
在DeepSeek-R1训练中,研究人员直接提示模型生成包含反思和验证的详细答案;收集并整理DeepSeek-R1-Zero的输出,使其具有可读性;以及通过人工注释者的后期处理来提高数据质量
如涉及利用用户的输入构造训练数据,DeepSeek会对数据进行安全加密技术处理、严格的去标识化和匿名化处理,从而尽可能避免训练数据关联到任何特定个人,且不会在模型给其他用户的输出中带有个人信息,更不会将其用于用户画像或个性化推荐。
为了确保模型的安全性,在模型优化训练阶段,DeepSeek构造了专门的安全数据对模型进行安全对齐,教会模型的回复符合人类的价值观,增强模型内生的安全能力。
模型训练完成并被部署后,可以通过对输入信息进行编码和计算来预测下一个token,从而具备文本生成和对话等能力。
具体到DeepSeek的产品服务,基于用户的输入,模型采用自回归生成方式,基于输入的上下文内容,通过概率计算预测最可能的接续词汇序列。
此并非简单检索或「复制粘贴」训练数据中的原始文本,模型也并未存储用于训练的原始文本数据副本,而是基于对语言结构和语义关系的深度理解,动态生成符合语境的回答。
我们通过开源平台对外公开发布了所有模型的权重、参数以及推理工具代码等,并采用宽松的MIT协议,供使用者自由、免费下载部署使用。
同时,DeepSeek发布各模型的完整技术报告,供社区和研究人员参考,并帮助公众更深入地了解每个模型的技术原理和细节。
对此,DeepSeek正通过一些技术手段降低幻觉率,包括高质量的训练数据、优化对齐策略deepseek、RAG等,但现阶段依无法完全消灭。
尤其是,在医疗、法律、金融等专业领域,DeepSeek不提供任何建议或承诺,专业的事儿还得找专业的人。
DeepSeek对此也是高度重视,采取了一系列硬核措施,贯穿了模型研发、训练、部署的全生命周期。原文出处:刚刚,DeepSeek最新发文!V3R1训练细节全公开,信息量巨大,感谢原作者,侵权必删!