庞若鸣被小扎天价挖走,谁会承接苹果的AI希望?
AI 巨头动动手指,整个硅谷的人才市场立刻掀起N场地震。7月12日,谷歌被曝把 AI 编程创企 Windsurf 的核心团队打包带走,让 OpenAI 豪掷30亿美元的收购计划泡汤。
而在这个消息公布的三天前,OpenAI 才宣布挖到来自 Meta、xAI、特斯拉的4名新员工。
此举被视作对 Meta 的回击。毕竟最近最大的鲶鱼无疑是扎克伯格—— LIama 彻底掉队之后,小扎终于开启疯狂撒钱招人模式,成立超级AI实验室,打包纳入包括 Alexandr Wang 在内的 Scale.ai 核心团队,以及 OpenAI 的核心研究员余家辉、赵盛佳、毕书超等人。
*网友将余家辉的身价与 C 罗对比
在这轮AI人才争夺中,声响最大的是 Meta 引入苹果 AFM(Apple Foundation Model)负责人庞若鸣。据称小扎为了吸引他,开出了高达2亿美元的长期合同。
硬币的另一面,随着 Windsurf 创始团队打包离开,绝大多数人认为这家公司已经不可能存活下去。
至于苹果,有人称庞若鸣的离开就像挖走了苹果大模型团队的“心脏”。
不过和此时争议四起的 Windsurf 不同,苹果已迅速委派履历资深的陈智峰,接手大模型负责人的职位。
我们了解到,陈智峰是庞若鸣 Google 时期的同事。他2000年本科毕业于复旦大学 CS 专业,赴美获得博士学位后加入 Google,任职时间长达19年。
在 Google 期间,陈智峰和吴永辉(现字节 Seed 负责人)、庞若鸣等大佬关系密切——他们曾一起推动 TensorFlow、Lingvo/Babelfish 、GPipe、Zanzibar 等知名框架/系统落地。在 Google 工作的后期,陈智峰同样对 Gemini 做出了贡献。
*2018 年 1 月,当时还是 Google Brain 首席工程师陈智峰在极客公园创新大会 IF 上演讲。
需要端侧模型适配设备的苹果,看起来对经验横跨模型、框架、编译器、大规模系统的陈智峰寄予厚望。
陈智峰的 Linkedin 显示,他于2025年4月加入苹果,职级为 Sr. Distinguished Engineer(Senior Distinguished Engineer) 。
资料显示,在这一职级之上的只有 Engineering Fellow。在苹果,拥有 Engineering Fellow title 的人很少——被乔布斯和库克视为苹果最聪明工程师之一的已故工程师比尔·阿萨斯算一个。
*来源:海外技术/产品职级和薪酬平台
外媒报道,陈智峰接手后 AFM 团队的组织结构将发生变化——陈将建设自己的-1团队,而庞若鸣时期则没有这一层。
根据我们的观察,处于调整期的 AFM 团队依旧拥有不少优秀的科学家。
苹果在2024年发布的两篇重要论文显示,负责苹果大模型的核心成员大约有一半是华人。
*两篇论文:Apple Intelligence Foundation Language Models;
MM1: methods, analysis and insights from multimodal llm pre-training
这些华人 AI 工程师大多拥有名校博士学位,进入苹果前多在 Google、微软、AWS 等巨头工作。他们中不乏已经成名的科学家,或和何恺明、吴永辉等AI大佬共事过的青年研究者。
比如 Principal Scientist 王崇,他与博导合作提出的在线变分推断(2013 年发表)成为机器学习经典方法之一。
2019 年他加入字节跳动,担任应用机器学习研究团队负责人。有媒体报道,王崇在字节和同事一起开发了深度召回模型 Deep Retrieval。这一模型改变了头条的广告技术生态,使王崇成为“杨震原(现字节技术副总裁)最尊重的研究员”。
新生代的 AFM 成员也履历光鲜。
比如王子瑞。他在卡内基梅隆大学取得学士、博士学位,毕业后加入过 Google、xAI,现在在苹果负责 Post-Training。
在王子瑞的 Google Scholar 上, 吴永辉、庞若鸣、余家辉的名字时常出现。
在 Google 期间,他和余家辉共同一作提出的多模态预训练方法 CoCa(TMLR 2022)被引用超 1700 次。这篇论文的作者还有吴永辉。
在卡内基梅隆大学时,王子瑞还作为第一作者提出视觉-语言预训练模型 SimVLM(ICLR 2022),作者同样有余家辉。
接近大模型团队的工程师告诉我们,苹果此前的 AI 战略迟滞,主要因为高层对是否全力投入自研大模型摇摆不定,和产品与模型的适配难度太高。
陈智峰的经验覆盖 AI 框架、芯片和基础设施,现有 AFM 团队成员不少擅长优化算法、MoE、多模态等领域。或许陈智峰带领的 AFM,会取得更多进展。
以下是我们梳理的部分苹果大模型团队核心成员信息:
陈智峰/ Zhifeng Chen
庞若鸣离职后,新任的AFM负责人是他曾经在 Google 共事过的陈智峰(Zhifeng Chen)。
陈智峰的 Linkedin 显示,他今年4月才加入 Apple,此前在 Google 工作了19年,是 Distinguished Engineer(对应谷歌内部职级L9)。现任字节 Seed 团队负责人吴永辉从 Google 离职时职级为 L10 Google Fellow。
在谷歌的近20年里,陈智峰参与构建了众多全球知名项目,范围覆盖算法、框架、底层基础设施。在这些项目中与其共事的,不仅有吴永辉、庞若鸣,还有图灵奖&诺贝尔奖双料得主 Geoffrey Hinton。
比如 TensorFlow ,这一具备全球影响力的深度学习框架由 Google 在2015年推出,Geoffrey Hinton、吴永辉、陈智峰、贾扬清都是该项目的成员。目前,这个让深度学习从实验室走向工业界的开源框架,已在 GitHub 上获得了超过 191k 的 star。
2017 年后,陈智峰作为 Google Brain 语音识别负责人之一,与吴永辉、庞若鸣共同主导 Lingvo/Babelfish 框架,使 TPU 利用率长期位居 Google 内部第一。Lingvo 后来成为 Transformer-TTS、Conformer、Gemini 的训练底座,影响至今。
2019年,陈智峰还和吴永辉一起推进了 GPipe。这个项目专门用来把超大深度学习模型“切开”放到多张 GPU/TPU 上训练,在保持高效率的同时,只占用低内存。
陈智峰在AI框架之外的工作也非常有代表性。他曾与庞若鸣、Abhishek Parmar共同创立了谷歌全球授权系统 Zanzibar,并在2014年起成为该项目的唯一技术负责人。目前,这一系统仍支撑 Google 内部 1000+ 产品,包括 YouTube、Drive、Search 的权限校验。
2020年,他参与了 Waymo 发布的 Waymo Open Dataset 论文。这项工作中,Waymo 把自家无人车车队在旧金山、凤凰城、山景城采集的 1000+ 段 20 秒多模态数据(高分辨率摄像头 + 高线束 LiDAR + 标定参数 + 3D 框/实例分割标注)开放给学术界,成为当时规模最大、地理分布最广、传感器最丰富 的自动驾驶公开数据集。
2023年底,他参与了 Gemini 的发布。
Google Scholar 上显示,目前陈智峰的论文整体被引用次数达到 118,757 次。
庞若鸣离职后,苹果紧急任命陈智峰接任 AFM 团队负责人,全面负责团队日常运营。据报道,他目前带领 Apple 基础模型团队建立了新的多层管理架构(由多名经理向其汇报)。
熟悉团队的人士表示,王崇、王子瑞、邱中镇和尹国力可能是新架构中的经理人选。
王崇 / Chong Wang
王崇的名字最近也被频繁提及。在庞若鸣离职后的新架构中,他被业内人士视作团队的新任技术管理者之一。
王崇的行业地位从他博士期间就开始奠定,一路延伸到工业界。
王崇是2006年在清华大学自动化专业获得学士和硕士学位。2012年,他在普林斯顿大学获得计算机科学博士学位,研究聚焦主题模型和贝叶斯非参数方法。
他与导师合作提出的在线变分推断(2013年发表)成为机器学习经典方法之一。它把"贝叶斯推断"从小数据集实验室工具变成了大数据时代的工业级引擎,在推荐、风控系统上意义重大。
此外,王崇在 KDD 2011 提出的协同主题模型也被纽约时报采用于新闻推荐系统。他还与李飞飞等人合作将主题模型扩展用于图像分类与标注。
博士毕业后,王崇加入微软,随后于2014年左右加入谷歌任研究科学家。
2019年他加入字节跳动,担任应用机器学习研究团队负责人,带领团队在推荐算法和对话系统等领域取得进展。
曾有媒体报道,加入字节后,王崇和同样具备谷歌背景的刘小兵,开发了深度召回模型:Deep Retrieval。据称,这一模型改变了头条的广告技术生态,也使王崇成为“杨震原最尊重的研究员”。
2022年,他作为 Principal Scientist 加盟 Apple。在2024年发布的苹果基础大模型论文中,王崇任推理效率负责人。
杜楠 / Nan Du
杜楠是 Apple AI/ML 团队的 Principal Researcher,拥有佐治亚理工学院计算机科学博士学位(2016年)。
和不少 AMF 团队成员一样,他博士毕业后的第一站是 Google。在 Google,杜楠度过了7年时间,主要从事深度学习、大语言模型的高效训练和推理相关的工作。
他是混合专家模型(MoE)领域的专家,参与了谷歌万亿权重语言模型 GLaM(General Language Model)的开发,是相关论文的第一作者。GLaM 采用稀疏专家混合模型(MoE)架构,通过高效训练和服务,在多个小样本学习任务上都能有竞争力的性能。
此外,杜楠还参与了 PaLM 2 和 Google AI 搜索项目 Magi 的工作。
2023年10月,他加入 Apple AI/ML 团队,继续提升大模型模型的效率,参与了苹果大模型300亿参数多模态大模型MM1(MoE架构)的预训练,以及 Apple intelligence 的开发。
杜楠目前的论文被引用次数超过了 25k,其中,发布 PaLM 模型的论文被引用了超过6800次。
王子瑞 / Zirui Wang
王子瑞近期也被外媒频繁提及,被视作目前苹果AMF的重要角色之一。当前他负责 Apple Foundation Models 的后训练(post-training)工作。在去年关于 Apple Foundation Models 的论文中,王子瑞的名字出现在 post-training 负责人的位置。
王子瑞在如今的苹果团队中属于新生代力量。
他在卡内基梅隆大学取得学士、博士学位,博士毕业后加入 Google 任研究科学家,专注于语言模型和多模态模型。在 Google 期间,他还参与了 Gemini 的工作。后来在庞若鸣的招募下,王子瑞于 2023 年加入 Apple。中途他曾在 xAI 工作过一段时间,但后续回到 Apple 负责模型后训练。
在 Google 期间,他和近期同被小扎挖去Meta的前 OpenAI 研究员—— 余家辉共同一作提出的多模态预训练方法 CoCa(TMLR 2022)被引用超 1700 次。这篇论文的作者还有吴永辉。
在卡内基梅隆大学时,王子瑞还作为第一作者提出视觉-语言预训练模型 SimVLM(ICLR 2022),作者同样有余家辉。
Chung-Cheng Chiu(邱中镇)
Chung-Cheng Chiu,又一位被外媒列为苹果基础模型团队重组后经理的关键人选。
和众多团队成员一样,他曾在谷歌有过多年工作经历。Chung-Cheng Chiu 硕士毕业于国立清华大学,在南加州大学计算机博士毕业后,2014年加入 Google。2023年6月开始,在 Google DeepMind 担任软件工程师。
2024年,Chung-Cheng Chiu 跳槽至苹果,从事多模态大模型和语音技术的融合研究。
从履历看,Chung-Cheng Chiu 的重点方向也在语音和多模态方向。在 Google 的近10年时间里,他参与了谷歌多项重量级 AI 项目,包括开发端到端语音识别模型和多语言模型。2023年底,主打多模态的 Google Gemini 发布,Chung-Cheng Chiu 同样参与贡献。
Chung-Cheng Chiu 在语音和机器学习领域发表了90余篇论文。例如,他参与的 Conformer 模型论文,被引用超4000次;参与开发的 ASR 的数据增强工具 SpecAugment,在谷歌学术上的引用次数也超过4600次。在 Google 揭示如何训练横跨100+语言ASR模型的 USM 工作中,Chung-Cheng Chiu 也有贡献。
Guoli Yin
Guoli Yin 是浙大校友,2018硕士毕业于斯坦福大学,随后进入苹果工作。
资料显示,2018年就加入苹果的他可能是AFM团队中在这里工作时间最久的人之一。 2022年,Guoli Yin 作为创始工程师加入了「Apple Intelligence」计划,参与并见证 Apple Foundation Model 从零开始的研发。
在苹果,Guoli Yin 作为作者之一参与了 Apple Foundation Models 系列技术报告的撰写。另外,在 Apple 发布的多模态智能体评测(MMAU)工作中,他和Haoping Bai、Shuang Ma 同为第一作者。
和交互式工具使用基准(ToolSandbox)中,他也有重要贡献。
Zhe Gan
Zhe Gan 是 Apple AI/ML 团队的科学家。从研究方向看,Zhe Gan 专注多模态领域。
在 Apple 的多模态大模型 MM1 的论文中,他与 Brandon McKinzie 共同作为论文的一作。Zhe Gan 还在苹果多模态大模型 Ferret、Ferret-UI 中有重要贡献。
*Ferret 可以接受各种区域输入,如点、边界框和自由形状,并理解其语义。在输出中,它可以根据文本自动生成每个定位对象的坐标。
2022年加入苹果之前,Zhe Gan 在 Azure AI 担任 Principal Researcher。2018年,Zhe Gan 从杜克大学博士毕业。更早之前,他本硕毕业于北京大学。
在 Azure,他的代表项目是开源的多模态大模型 Florence-VL。目前,Zhe Gan 的论文总引用已经超过2.6万次。
Yinfei Yang / 杨寅飞
Yinfei Yang 是 Apple AI/ML 的研究科学家,2022年1月加入并持续至今。在此之前,他在 Google Research 先后负责过文本大模型(BERT)和图像生成大模型的相关工作。
Yinfei Yang 2009年毕业于南京邮电大学 CS 专业,之后在美国获得计算机硕士学位。2013年,他加入 Amazon 从事计算机视觉方向的工作。
他目前引用量最高的论文发表于2021年,证明了在计算机视觉领域,“弱标注 + 超大规模”足以替代昂贵的人工标注,从而显著提升视觉模型的检索、零样本分类任务效果。Yinfei Yang 作为二作参与了这篇论文的工作,目前已有4700多次引用。
Yanghao Li
Yanghao Li 也是AFM团队中较为年轻的一位。他是北大校友,于2023年8月加入苹果,此前曾在 Meta 的 AI 研究团队(FAIR)做计算机视觉、机器学习相关研究。
作为一名青年研究员,Yanghao Li 在 Google Scholar 上的论文总引用量接近25k。这些引用的绝大部分来自于一篇发表在 Meta 时期的文章。
这篇论文是 FAIR 的研究项目,知名的 AI 大佬何恺明为共一、谢赛宁为二作,Yanghao Li 为论文三作。
这篇论文发表于 2022 CVPR,用一句话概括:MAE 技术只看四分之一的图像就能补完其余四分之三,也能把 Vision Transformer 预训练得又快又好。MAE 把 ImageNet-1K 精度推到 87.8 %(ViT-H),训练成本降到对比学习的约 1/3,并在两年内催生了 VideoMAE、SimMIM、UM-MAE、Data2vec、DINOv2、EVA-02 等一系列关键技术路线。
Tao Lei
2023年左右加入苹果的 Tao Lei,研究方向包括模型可解释性、高效训练、MoE等。
他于 2017 年在麻省理工学院完成博士学位,研究侧重模型的可解释性与高效训练。
此前他于 2010 年毕业于北京大学信息科学技术学院。博士毕业后,Lei Tao 曾在纽约创业公司 ASAPP 担任研究科学家并带领团队研究应用机器学习和自然语言处理问题。
2020 年左右他加入 Google ,专注大规模模型的结构优化与压缩。2023 年,他加盟苹果,从事大模型的优化和应用研究。
Tao Lei 在 Google Scholar 的论文引用次数接近6000次。2022年,他参与发布 Google 关于 MoE 的研究,陈智峰、黄彦平、Nan Du、Yanqi Zhou 等人也参与其中。
Qibin Chen
Qibin Chen 是清华校友,是 AFM 团队中最年轻的成员之一。
他2019年从清华大学本科毕业,2022年在卡内基梅隆大学获得硕士学位,当时的研究方向是大语言模型和深度学习。
硕士毕业后,Qibin Chen 加入苹果,在 Apple Foundation Model 团队担任机器学习研究员。
在清华期间,Qibin Chen 主要和唐杰教授一起研究课题,曾多次参与清华和阿里合作的研究项目并发表论文。
2021年,他的论文研究方向开始转向深度学习。在2021年的 USENIX 上,他作为第一作者发布了基于学习变量名与类型增强反编译输出。同年 ICSE 上,作为一作他在语义分析领域发布基于对比学习的可变语义表征预训练 VarCLR。
Xianzhi Du
Xianzhi Du 是 Apple AI/ML 团队的资深研究员(Staff Research Scientist),主要工作是构建和训练大语言模型、多模态 LLM 和稀疏混合专家模型 (MoE)。
2017年他在马里兰大学帕克分校获得计算机科学博士学位,研究领域包括目标检测、神经网络架构搜索等。
Xianzhi Du 的 Linkedin 显示,他博士毕业后在2019 年加入 Google 任Senior Research Engineer,先后在 Google Brain 和 Google CoreML,参与计算机视觉研究和 TensorFlow 官方模型的构建。
此外,他还和把AI模型应用于包括 Waymo、Google Cloud、Google Maps、Google Photos、Nest、X 等产品上。
2022年他加盟苹果。在这里,他参与了 MM1(论文核心作者)和基础大模型的研发。
同时,他还作为主要参与者研发了多模态大模型 Ferret,相关论文发表在 ICLR 2024 上,是当期的 spotlight。他还是苹果开源 AI 图像编辑工具 MGIE 的核心开发人员,这个工具能利用多模态大模型来增强图像编辑的指令引导能力。
Dong Yin
Dong Yin 在苹果主要研究机器学习理论和算法。
2014年,他本科毕业于清华大学电子工程系,随后赴美深造。2019年,Dong Yin 获得加州大学伯克利分校 EECS 系博士学位,毕业后即加入 Google。2023年7月,他加入 Apple,主要关注大模型的训练优化和高效推理等方面。
从学术成果看,Dong Yin 的主要研究方向包括分布式优化算法、联邦学习等。
他在2018年读博期间发表的《Byzantine-Robust Distributed Learning: Towards Optimal Statistical Rates》引用已经超过2000次。他在Google DeepMind期间参与的《An Efficient Framework for Clustered Federated Learning》,引用次数超过1000。
Feng Nan
Feng Nan 是苹果的基础模型团队的研究科学家,专注于自然语言处理与深度学习。
2022年12月加入 Apple 前,他曾在 Amazon AWS AI 任高级应用科学家,从事主题模型、问答和文本摘要等 NLP 课题研究。
他本科毕业于新加坡国立大学,后赴美深造,在2009年获得了 MIT 硕士学位,于 2018年在波士顿大学获得博士学位。
在苹果,他参与了 Apple Foundation Models 的构建和优化,致力于提升 Apple 端侧大模型的性能与应用。
除却以上我们列出的成员,AFM 其他的华人团队成员还包括 Zhaoyang Xu、Aonan Zhang、Rui Qian、Bowen Zhang、Jiarui Lu、Xiang Kong 等等。了解 AFM 团队背景的朋友欢迎在评论区补充信息~ 这波人才大战简直像科技界的军备竞赛,陈智峰带着谷歌19年积累的空降苹果,怕是要把大模型适配手机这事儿彻底改写了 谢谢楼主分享!
页:
[1]