ICML 2025 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘


ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘
AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

吴翼,清华大学交叉信息院助理教授,曾任 OpenAI 全职研究员,研究领域为强化学习,大模型对齐,人机交互,机器人学习等。2019 年在美国加州大学伯克利分校获得博士学位,师从 Stuart Russell 教授;2014 年本科毕业于清华大学交叉信息院(姚班)。其代表作包括:NIPS2016 最佳论文,Value Iteration Network;多智能体深度强化学习领域最高引用论文,MADDPG 算法;OpenAI hide-and-seek 项目等。

如何让大模型更好的遵从人类指令和意图?如何让大模型有更好的推理能力?如何让大模型避免幻觉?能否解决这些问题,是让大模型真正广泛可用,甚至实现超级智能(Super Intelligence)最为关键的技术挑战。这些最困难的挑战也是吴翼团队长期以来的研究重点,大模型对齐技术(Alignment)所要攻克的难题。

对齐技术中,最重要的算法框架就是根据人类反馈的强化学习(RLHF, Reinforcement Learning from Human Feedback)。RLHF 根据人类对大模型输出的偏好反馈,来学习基于人类反馈的奖励函数(Reward Model),并进一步对大模型进行强化学习训练,让大模型在反复迭代中学会辨别回复的好坏,并实现模型能力提升。目前世界上最强的语言模型,比如 OpenAI 的 GPT 模型和 Anthropic 的 Claude 模型,都极其强调 RLHF 训练的重要性。OpenAI 和 Anthropic 内部也都开发了基于大规模 PPO 算法的 RLHF 训练系统进行大模型对齐。

然而,由于 PPO 算法流程复杂,算力消耗大,美国 AI 公司的大规模 RLHF 训练系统也从不开源,所以尽管 PPO 算法非常强大,学术界的对齐工作却一直很少采用复杂的 PPO 算法进行 RLHF 研究,转而普遍使用 SFT(监督微调)或者 DPO(Direct Policy Optimization)等更简化、更直接、对训练系统要求更低的对齐算法。

那么,简单的对齐算法一定效果更好吗?吴翼团队发表在 ICML 2025 的工作 “Is DPO Superior to PPO for LLM Alignment? A Comprehensive Study” 仔细探讨了 DPO 与 PPO 算法的特点,并指出提升 RLHF 算法效果的关键点。在该工作中,吴翼团队基于自研的大规模 RLHF 训练系统,首次采用 PPO 算法及参数量更少的开源模型,在公认最困难的挑战 —— 代码生成任务 CodeContest—— 上超过闭源大模型 AlphaCode 41B。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

icml 2024 oral | dpo是否比ppo更适合llm,清华吴翼团队最新揭秘

相关成果被 ICML 2025 录用为 Oral Presentation,并将在 7 月 23 日于 ICML 2025 第一个 Oral session Alignment-1 上和 OpenAI、Anthropic 等知名机构的工作一起进行公开汇报。

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

接下来让我们对比一下 GPT-4 和经过 PPO 算法训练的 CodeLlama 34B 模型在代码生成上的效果,在例子 1 中,经过 PPO 算法训练的 CodeLlama 34B 模型与 GPT-4 模型生成了质量相当的代码。

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

在示例 2 中,可以看到经过 PPO 算法训练的 CodeLlama 34B 模型与 GPT-4 模型都能生成完整并且可运行的 python 代码。然而,在这个例子下,GPT-4 生成了错误的代码,在测试数据上无法正确输出。而经过 PPO 算法训练的 CodeLlama 34B 模型生成的代码可以通过测试。

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

在 ICML 2025 的这篇论文中,研究团队详细探讨了 DPO 与 PPO 算法的特点,并指出提升 DPO 和 PPO 能力的关键点。

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

  • 论文标题:Is DPO Superior to PPO for LLM Alignment? A Comprehensive Study
  • 论文地址:https://arxiv.org/pdf/2404.10719

DPO 算法的局限性

相比于 PPO,DPO 使用离线数据而非在线采样数据训练。经分析,DPO 算法会导致训练出的模型对训练数据分布之外的输出产生偏好,在某些情况下产生不可预料的回复。

于是,为了提升 DPO 算法的能力,研究团队总结了两个关键技术:在 RLHF 训练前进行额外的 SFT 训练,以及使用在线采样数据而非离线数据

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

实验表明,使用额外的 SFT 训练可以使 base 模型以及 reference 模型更偏向于数据集内的分布,大大提升 DPO 算法效果;另一方面,使用在线采样数据进行迭代训练的 DPO 算法可以得到稳步提升,表现远远优于基础的 DPO 算法。

PPO 算法的关键点

除去 DPO,论文中也总结了发挥 PPO 最大能力的三个关键点:

  • 使用大的批大小(large batch size)
  • 优势归一化(advantage normalization)
  • 以及对 reference model 使用指数移动平均进行更新(exponential moving *erage for the reference model)。

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

研究团队成功使用 PPO 算法在对话任务 Safe-RLHF/HH-RLHF 以及代码生成任务 APPS/CodeContest 上达到了 SOTA 的效果。

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

码上飞 码上飞

码上飞(CodeFlying) 是一款AI自动化开发平台,通过自然语言描述即可自动生成完整应用程序。

码上飞 430 查看详情 码上飞
在对话任务上,研究团队发现综合了三个关键点的 PPO 算法显著优于 DPO 算法以及在线采样的 DPO 算法 DPO-Iter。

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

在代码生成任务 APPS 和 CodeContest 上,基于开源模型 Code Llama 34B,PPO 算法也达到了最强的水平,在 CodeContest 上超越了之前的 SOTA,AlphaCode 41B。

想要实现效果较好的大模型对齐,高效率的训练系统是不可缺少的,在实现大规模强化学习训练上,吴翼团队有长期的积累,从 2025 年开始就搭建了专属的分布式强化学习框架。

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

  • NeurIPS 2025 The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games [1]:提出并开源了用于多智能体的强化学习并行训练框架 MAPPO,支持合作场景下的多智能体训练,该工作被大量多智能体领域工作采用,目前论文引用量已超过 1k。
  • ICLR 2025 Scaling Distributed Reinforcement Learning to Over Ten Thousand Cores [2]: 提出了用于强化学习的分布式训练框架,可轻松扩展至上万个核心,加速比超越 OpenAI 的大规模强化学习系统 Rapid。
  • ReaLHF: Optimized RLHF Training for Large Language Models through Parameter Reallocation [3]: 最近,吴翼团队进一步实现了分布式 RLHF 训练框架 ReaLHF。吴翼团队的 ICML Oral 论文正是基于 ReaLHF 系统产出的。ReaLHF 系统经过长时间的开发,经历大量的细节打磨,达到最优性能。相比于之前的开源工作,ReaLHF 可以在 RLHF 这个比预训练更复杂的场景下达到近乎线性的拓展性,同时具有更高的资源利用率,在 128 块 A100 GPU 上也能稳定快速地进行 RLHF 训练,相关工作已开源:https://github.com/openpsi-project/ReaLHF

除了提升大语言模型代码能力之外,吴翼团队还采用多种将强化学习算法和大模型结合的方式,实现了多种复杂 LLM Agent,并可以和人类进行复杂交互。

在 MiniRTS 中使用强化学习既能听从人类指令也能做出最优决策的语言智能体 [4]。

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

在狼人杀中训练策略多样化的强化学习策略以提升大模型的决策能力 [5]。

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

在 Overcooked 游戏中结合小模型与大模型实现能进行实时反馈的合作 Language Agent [6]。

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

结合强化学习训练的机器人控制策略与大语言模型推理能力让机器人能够执行一系列复杂任务 [7]。

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

为了使大模型能真正走进千家万户,对齐技术是至关重要的,对于学术界和大模型从业者来说,好的开源工作和论文无疑会大大降低实验成本和开发难度,也期待随着技术发展,会有更多服务于人类的大模型出现。

[1] Yu, Chao, Akash Velu, Eugene Vinitsky, Jiaxuan Gao, Yu Wang, Alexandre Bayen, and Yi Wu. "The surprising effectiveness of ppo in cooperative multi-agent games."
[2] Mei, Zhiyu, Wei Fu, Guangju Wang, Huanchen Zhang, and Yi Wu. "SRL: Scaling Distributed Reinforcement Learning to Over Ten Thousand Cores."
[3] Mei, Zhiyu, Wei Fu, Kaiwei Li, Guangju Wang, Huanchen Zhang, and Yi Wu. "ReaLHF: Optimized RLHF Training for Large Language Models through Parameter Reallocation."
[4] Xu, Shusheng, Huaijie Wang, Jiaxuan Gao, Yutao Ouyang, Chao Yu, and Yi Wu. "Language-guided generation of physically realistic robot motion and control."
[5] Xu, Zelai, Chao Yu, Fei Fang, Yu Wang, and Yi Wu. "Language agents with reinforcement learning for strategic play in the werewolf game."
[6] Liu, Jijia, Chao Yu, Jiaxuan Gao, Yuqing Xie, Qingmin Liao, Yi Wu, and Yu Wang. "Llm-powered hierarchical language agent for real-time human-ai coordination."
[7] Ouyang, Yutao, Jinhan Li, Yunfei Li, Zhongyu Li, Chao Yu, Koushil Sreenath, and Yi Wu. "Long-horizon Locomotion and Manipulation on a Quadrupedal Robot with Large Language Models."

以上就是ICML 2025 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘的详细内容,更多请关注其它相关文章!


# 而非  # 郑州外贸网站seo  # 网站推广途径是什么  # 晋中网站建设经验交流  # seo部门是什么  # 黄石网站建设技术托管  # 合肥全网营销推广可靠吗  # ps怎么做企业网站推广  # 荆门网站线上推广  # 昆山市花桥镇网站优化  # 南平市seo优化哪家强  # 吸引人  # 一言  # 工程  # 广州  # 量产  # 也能  # 离线  # 开源  # 更适合  # 清华  # type  # llama  # claude  # git  # python 


相关栏目: 【 Google疑问12 】 【 Facebook疑问10 】 【 优化推广96088 】 【 技术知识133117 】 【 IDC资讯59369 】 【 网络运营7196 】 【 IT资讯61894


相关推荐: 世界人工智能大会中西部县域数字就业中心组团亮相  AI行业盛会大咖云集!Sam Altam、“AI教父”......一文看懂最新观点  联通发布鸿湖图文AI大模型1.0,可实现以文生图  昇腾AI & 讯飞星火:深度联手,共话国产大模型“大未来”  网易数帆以AI融合创新引领数据分析与软件开发新趋势  美军AI无人机“误杀”操作员,人工智能要在军事领域毁灭人类?  无需标注数据,「3D理解」进入多模态预训练时代!ULIP系列全面开源,刷新SOTA  从GOXR到PartyOn,XRSPACE致力打造多元共赢的元宇宙世界  OpenAI已向中国申请注册“GPT-5”商标,此前已在美国提交申请  从数据中心到发电站:人工智能对能源使用的影响  Meta Quest订阅服务每月7.99美元畅玩两款VR游戏应用  你大脑中的画面,现在可以高清还原了  特斯拉 Optimus 人形机器人入驻北美门店,帮助提升汽车销量  酒店业将如何受益于人工智能的改变?  特斯拉机器人面世 未来将大幅提振磁材需求,引领人工智能时代  特斯拉门店可能启动机器人卖车?也许不是你想的那样  微软AR/VR专利提出使用时间复用谐振驱动产生双极性电源  成功孵化首个大型模型解决方案的重庆人工智能创新中心  一家 380 亿美元的数据巨头,要掀起企业「AI 化」革命  工业机器人及非标自动化设备集成服务提供商  AI立法迫在眉睫,如何看对行业影响?  AI技术改变*,新骗局来袭,*成功率接近100%  日媒关注中国推进鸟类识别 AI 普及,除监测保护外还可预防传染性疾病  开创全新虚拟现实体验的Pimax Crystal VR头显  Midjourney 5.2震撼发布!原画生成3D场景,无限缩放无垠宇宙  面向AI大模型,腾讯云首次完整披露自研星脉高性能计算网络  吉林首例!机器人辅助下搭桥手术成功实施  鸿蒙OS 4将实现AI大模型集成,余承东表示坚持AI辅助而非AI取代  在心理治疗中用VR技术,治疗成效显著提高  腾讯AI首次模拟拼接三星堆文物,工作取得阶段性的成果  美的推出 AI 双视精准避障的自动集尘扫拖机器人 V12,售价仅为2999元  软银、淡马锡、沙特阿美突击入股,“协作机器人第一股”节卡股份:强敌环伺,持续失血是常态  导演郭帆:人工智能应用可能会影响《流浪地球 3》的创作开发  AI 助手 Copilot 上线,微软 Win11 Dev 预览版 Build 23493 发布  中兴通讯无人机高空基站助力北京门头沟受灾乡镇保障应急通信  OpenAI高管:AI能创造新的就业机会 但也会淘汰一些  研究预测HPC支持的人工智能增长迅速  改变城市交通:智慧城市中的智能交通  普渡机器人与变形金刚品牌合作,特别活动爆火,商品售罄!  消息称字节机器人团队已有约50人,计划年底扩充到上百人  读创正式上线“读创AI聊”功能  OpenOOD更新v1.5:全面、精确的分布外检测代码库及测试平台,支持在线排行榜、一键测试  B站内测 AI 搜索功能,输入“?”即可体验  AI浪潮席卷,时空壶为何能成为AI翻译时代的破局者  人工智能产业竞跑“未来赛道” 创新发展放大“赋能”效应  构建AI绘画网站的方法:使用API接口和调用步骤  DreamAvatar数字人使用教程  参考封面|人工智能“淘金热”  云米Smart 2E AI立式空调开启预售:新三级能效,到手价3899元  以计算机视觉技术为基础的库存管理如何改革零售行业 

 2024-07-22

了解您产品搜索量及市场趋势,制定营销计划

同行竞争及网站分析保障您的广告效果

点击免费数据支持

提交您的需求,1小时内享受我们的专业解答。

运城市盐湖区信雨科技有限公司


运城市盐湖区信雨科技有限公司

运城市盐湖区信雨科技有限公司是一家深耕海外推广领域十年的专业服务商,作为谷歌推广与Facebook广告全球合作伙伴,聚焦外贸企业出海痛点,以数字化营销为核心,提供一站式海外营销解决方案。公司凭借十年行业沉淀与平台官方资源加持,打破传统外贸获客壁垒,助力企业高效开拓全球市场,成为中小企业出海的可靠合作伙伴。

 8156699

 13765294890

 8156699@qq.com

Notice

We and selected third parties use cookies or similar technologies for technical purposes and, with your consent, for other purposes as specified in the cookie policy.
You can consent to the use of such technologies by closing this notice, by interacting with any link or button outside of this notice or by continuing to browse otherwise.