本站全国维修客服热线电话:400--117--9882(温馨提示:点击屏幕下方↓↓↓可直接拨打)
DeepSeek-v3 大模型横空出世,以 1/11 算力训练出超过 Llama 3 的开源模型,震撼了整个 AI 圈。
紧接着," 雷军开千万年薪挖 DeepSeek 研究员罗福莉 " 的传闻,也使得人们把目光聚焦向DeepSeek 的人才。
这下不只科技圈,全网都在好奇,连小红书上都有人发帖询问,这究竟是一支怎样的团队?
国际上,也有人把创始人梁文锋的访谈翻译成英语,还加了注释,试图从中寻找这家公司崛起的蛛丝马迹。
量子位整理各种资料发现,DeepSeek 团队最大的特点就是年轻。
应届生、在读生,特别是来自清北的应届生在其中非常活跃。
他们中的一些人,2024 年一边在 DeepSeek 搞研究,另一边新鲜热乎的博士学位论文刚评上奖。
他们中有的参与了从 DeepSeek LLM v1 到 DeepSeek-v3 的全程,有的只是实习了一段时间也做出重要成果。
为 DeepSeek 提出 MLA 新型注意力、GRPO 强化学习对齐算法等关键创新的,几乎都是年轻人。
DeepSeek 核心成员揭秘
2024 年 5 月发布的DeepSeek-V2,是致使这家大模型公司破圈的关键一环。
其中最重要的创新是提出了一种新型注意力,在 Transformer 架构的基础上,用MLA替代了传统的多头注意力,大幅减少了计算量和推理显存。
在一众贡献者中,高华佐和曾旺丁为 MLA 架构做出了关键创新。
高华佐非常低调,目前只知道是北大物理系毕业。
另外,在 " 大模型创业六小强 " 之一阶跃星辰的专利信息中也可以看到这个名字,暂不确定是否是同一人。
而曾旺丁来自北邮,研究生导师是北邮人工智能与网络搜索教研中心主任张洪刚。
DeepSeek-V2 工作中还涉及到了另一项关键成果——GRPO。
DeepSeek-V2 发布前三个月,DeepSeek-Math 问世,其中提出了 GRPO。
GRPO 是 PPO 的一种变体 RL 算法,放弃了 critic 模型,而是从群体得分中估算 baseline,显著减少了训练资源的需求。
GRPO 在圈内得到广泛关注,另一家国内开源大模型阿里 Qwen 2.5 的技术报告中也透露用到了 GRPO。
DeepSeekMath 有三位核心作者是在 DeepSeek 实习期间完成的工作。
核心作者之一邵智宏是清华交互式人工智能课题组博士生,师从黄民烈教授。
他的研究领域包括自然语言处理、深度学习,特别对如何能构建一个稳健且可扩展的 AI 系统感兴趣,这个 AI 系统能利用多样化的技能整合异构信息,并能准确回答各种复杂的自然语言问题。
邵智宏之前还曾在微软研究院工作过。
DeepSeekMath 之后,他还参与了 DeepSeek-Prover、DeepSeek-Coder-v2、DeepSeek-R1 等项目。
另一位核心作者朱琪豪是北大计算机学院软件研究所 2024 届博士毕业生,受熊英飞副教授和张路教授指导,研究方向为深度代码学习。
据北大计算机学院官方介绍,朱琪豪曾发表 CCF-A 类论文 16 篇。在 ASE 和 ESEC/FSE 上分别获得 ACM SIGSOFT 杰出论文奖一次,提名一次。一篇论文进入 ESEC/FSE 会议同年的引用前三名。
在 DeepSeek 团队,朱琪豪还基于他的博士论文工作,主导开发了 DeepSeek-Coder-V1。
其博士论文《语言定义感知的深度代码学习技术及应用》也入选了 2024CCF 软件工程专业委员会博士学位论文激励计划。
还有一位核心作者同样来自北大。
北大博士生Peiyi Wang,受北京大学计算语言学教育部重点实验室穗志方教授指导。
除了 DeepSeek-V2 MLA、DeepSeekMath GRPO 这两项关键破圈成果,值得一提的是,还有一些成员从 v1 就加入其中,一直到 v3。
代表人物之一代达劢,2024 年博士毕业于北京大学计算机学院计算语言所,导师同样是穗志方教授。
代达劢学术成果颇丰,曾获 EMNLP 2023 最佳长论文奖、CCL 2021 最佳中文论文奖,在各大顶会发表学术论文 20 篇 +。
2024 年中国中文信息学会 " 博士学位论文激励计划 " 共入选 10 篇来自中国大陆高校的博士毕业论文,其中就有他的《预训练语言模型知识记忆的机理分析及能力增强关键技术研究》。
以及北大元培学院的王炳宣。
王炳宣来自山东烟台,2017 年进入北大。
硕士毕业加入 DeepSeek,参与了从 DeepSeek LLM v1 开始的一系列重要工作。
清华这边的代表人物还有赵成钢。
赵成钢此前是衡水中学信息学竞赛班成员,CCF NOI2016 银牌得主。
之后赵成钢进入清华,大二时成为清华学生超算团队正式成员,三次获得世界大学生超算竞赛冠军。
赵成钢在 DeepSeek 担任训练 / 推理基础架构工程师,有英伟达实习经历。
DeepSeek 是一支怎样的团队
这些鲜活的个体,足以引发人们的赞叹。
但还不足以回答最初的问题,DeepSeek 到底是一支怎样的团队?有怎样的组织架构?
答案或许还要从创始人梁文锋身上找。
早在 2023 年 5 月,DeepSeek 刚刚宣布下场做大模型,还没发布成果的时候,梁文锋在接受 36 氪采访时透露过招人标准。
看能力,而不是看经验。
我们的核心技术岗位,基本以应届和毕业一两年的人为主。
从后面一年多陆续发表的论文贡献名单中也可以看出,确实如此,博士在读、应届以及毕业一两年的成员占很大一部分。
即使是团队 leader 级别也偏年轻化,以毕业 4~6 年的为主。
例如领导 DeepSeek 的后训练团队的吴俣,2019 年北航博士毕业、在微软 MSRA 参与过小冰和必应百科项目。
吴俣博士期间接受北航李舟军教授和 MSRA 前副院长周明博士的联合培养。
与他师出半个同门的是郭达雅,中山大学印鉴教授与 MSRA 周明博士联合培养,2023 年博士毕业。
2024 年 7 月他加入 DeepSeek,主要参与了一系列数学和代码大模型的工作。
郭达雅上学期间还有一项事迹,本科期间在 MSRA 实习一年里发表两篇顶会论文,他笑称 " 在刚入学的第三天,就完成了中大博士生的毕业要求。"
除了团队成员年轻化之外,DeepSeek 在国内 AI 公司中突出的特点:非常重视模型算法和硬件工程的配合。
DeepSeek v3 论文总共 200 位作者,并不都是负责 AI 算法或数据。
有这样一批人从早期的 DeepSeek LLM v1 到 v3 一直都在参与,他们更多偏向算力的部分,负责优化硬件。
他们以 DeepSeek AI 的名义发表了论文《Fire-Flyer AI-HPC》,通过软硬件协同设计降低训练成本,解决传统超算架构在 AI 训练需求上的不足。
Fire-Flyer 也就是幻方 AI 搭建的萤火 2 号万卡集群,使用英伟达 A100 GPU,却做到相比英伟达官方的 DGX-A100 服务器有成本和能耗的优势。
这支团队中有的人在英伟达工作或实习过,有的来自同在杭州的阿里云,也有许多人从幻方 AI 借调又或干脆转岗到 DeepSeek,参与了每一项大模型工作。
而如此重视软硬件协同的成果,就是以 Llama 3 405B 的 1/11 算力,训练出性能更高的 DeepSeek-v3 了。
最后,我们还发现 DeepSeek 开源项目中有一个特别的存在,不是语言模型相关工作,却是3D 生成相关。
这项成果由清华博士生孙景翔在 DeepSeek 实习期间,与导师刘烨斌以及 DeepSeek 成员合作完成。
像这样实习生在 DeepSeek 做出重要成果的还有中山大学逻辑学专业的辛华剑。
他在 DeepSeek 实习期间参与了用大模型证明数学定理的 DeepSeek-Prover,现在在爱丁堡大学读博士。
看过这些例子,再一次回到梁文锋的访谈,或许更能理解这支团队的运作结构。
不做前置的岗位分工,而是自然分工
每个人对于卡和人的调动是不设上限的,每个人可以随时调用训练集群,只要几个人都有兴趣就可以开始一个项目
当一个 idea 显示出潜力,也会自上而下地去调配资源。
这难免让人想起 AI 界另一家不可忽视的力量,没错就是OpenAI。
同样的用人不看经验,本科生、辍学生只要有能力照样招进来。
同样的重用新人,应届生与 00 后可以调动资源从无到有研究 Sora。
同样的面对潜力方向,整个公司从顶层开始设计布局和资源推动。
DeepSeek,可能是组织形态上最像 OpenAI 的一家中国 AI 公司了。