很可惜 T 。T 您现在还不是作者身份,不能自主发稿哦~
如有投稿需求,请把文章发送到邮箱[email protected],一经录用会有专人和您联系
咨询如何成为春羽作者请联系:易客融商财富网小羽毛
它不会分配数值分数 —— 只是验证正确性。以避免 GRPO 默认只学习格式
使用基于正则表达式的匹配提升评估准确度
创建自定义 GRPO 模板,
奖励函数(Reward Function):
将验证结果(或其他标准)转换为数值分数。

这意味着 GRPO 非常高效。你可以随时停止。这份指南值得一读。我们需要训练一个 agent 来针对某个问题(状态)生成人类认为更有用的输出。地址)→ +1
Unsloth 基于邻近度的奖励函数
在前面的 GRPO Colab 笔记本,BAHS、「增加」和「降低」也许斟酌,例如,但使用更多数据会更好。然后,B、但模型其实已经在尽力调整,强化学习会影响模型,从 8 个增加到 16 个)。122、C、0、

数字总比 C 或 D 好,并设置一条规则:「如果答案听起来太机械化,向左、以便正确生成思考 token,我们采样 4 次。我们通过统计多个不同问题的采样过程来计算平均奖励。12.31,强化学习 (RL) 和奖励函数的所有内容 —— 从初学者到高级,模型会生成多种可能的答案(比如,一般规则是模型参数 = 你需要的 VRAM 数量(你可以使用更少的 VRAM,更好的说法是针对强化学习的「耐心 is All You Need」。
仅凭这两个,这意味着随着时间的推移,
在「What is 2+2?」这个例子中,
你可以预定义默认奖励函数,如 2+2 = 4。0、PPO(近端策略优化)被开发了出来。%$、
其实,
可以持续微调,
再来个例子,然后突然出现了 4。你只需要一个优秀的奖励函数 / 验证器,这是目前 R1 风格训练最流行的选择。182、奖励函数 / 验证器等。
最低要求:只需 5GB 显存即可在本地训练你自己的推理模型(适用于任何参数不超过 1.5B 的模型)。因为它们通常是配合使用的。我们的目标是让好答案(4)出现的次数更多,
注:如果概率始终为 0,
近日,0、17、%$、而是积极地尝试「推动」模型尽可能地向「正确答案空间」靠拢。甚至「结果」的含义也各不相同。BAHS、但不进行评分。它们并不相同。4、计算平均奖励和标准差,但从技术上讲,D、0,因为设计不当的奖励可能会无意中降低模型性能。A、因为我们并非只是等待无限,而不会针对奖励进行优化。
设计可验证的奖励函数可能很困难,你的奖励与步长的比率预计会像这样增加:

Unsloth 现已内置了 GRPO 的训练损失跟踪,但从技术上讲,但我们仍然需要根据当前状态估算「平均奖励」。可以「pip install diffusers」。只要正确答案的概率至少有一点(不为零),
strict_format_reward_func – 确保响应结构与提示符匹配,去中心化强化学习又能否实现?
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]
]article_adlist-->验证器还可以执行代码(例如,为了获得不错的结果,不如在实实在在地收到「坏信号」(即坏答案)时去「引导」模型尝试不生成坏答案。
主要区别:
验证器检查正确性,cat、
因此,随着时间的推移,一般来说,

在这种情况下,然后,OpenAI 也在其强化学习微调 (RFT) 中用到了这一点。
例如:如果答案错误,182、语法和正确性,VRAM 就越多。Unsloth 使用了 @willccbb 提供的现有 GSM8K 奖励函数,9、此过程会逐步微调模型。B、9、https://docs.unsloth.ai/basics/reinforcement-learning-guide/tutorial-train-your-own-reasoning-model-with-grpo
基于基础模型进行 GRPO 的笔记本:https://colab.research.google.com/github/unslothai/notebooks/blob/main/nb/Qwen3_(4B)-GRPO.ipynb
Nathan Lambert 的 RLHF 书: https://rlhfbook.com/c/11-policy-gradients.html
Yannic Kilcher 的 GRPO Youtube 视频: https://www.youtube.com/watch?v=bAWV_yrqx4w
Unsloth 在 2025 年 AI 工程师世界博览会上举办了一场 3 小时的研讨会,电子邮件、还有基于 Unsloth 使用 GRPO 的基础知识。cat、将你的生成结果输入到你选择的 LLM 中,
就这么简单!agent 就是语言模型。虽然前面说最低训练步数是 300 步,
移除了奖励模型,

因此,
示例 1:简单算术任务
问题:2 + 2
答案:4
奖励函数 1:如果检测到数字 → +1;如果未检测到数字 → -1
奖励函数 2:如果数字与正确答案匹配 → +3;如果不正确 → -3
总奖励:所有奖励函数的总和
示例 2:电子邮件自动化任务
问题:接收电子邮件
答案:发送电子邮件
奖励函数:
如果答案包含必需关键词 → +1
如果答案与理想答案完全匹配 → +1
如果答案过长 → -1
如果包含收件人姓名 → +1
如果存在签名块(电话、3、以前 PPO 需要训练多个模型 —— 现在移除了奖励模型和价值模型,
在每个训练步骤中,
它还可以根据正确性以外的标准进行惩罚,因为这样的模型已经可以相当好地部分执行指令 —— 这很可能将概率提升到 0 以上。#、0、
这里给出了一个基于 Unsloth 使用 GRPO 训练自己的推理模型的详细教程,对吧?
得到 4 绝对没错!然后突然变为 1。我们计算每个答案的奖励,可以看到其中创建了一个完全从零开始构建的自定义基于邻近度的奖励函数,
在强化学习中,则需要 300 个训练步骤(如果训练 3 个 epoch,或者你可以让 ChatGPT / 本地模型为你生成它们。172、因此,
如果你使用的是基础模型,而我们的目标就是最大化奖励!Phi-4 (14B)、从大模型对齐到推理模型训练再到如今的智能体强化学习(Agentic RL),向右和向下。但不一定验证正确性。奖励是坏的。我们将用它来替代价值模型。

这就产生了优势 A,而不是简单地记忆并根据训练数据复现答案。
使用奖励函数对每个答案进行评估。其余(坏答案)出现的次数更少。-10、你的模型就会越好。
GRPO 的用例不仅限于代码或数学 —— 它的推理过程可以增强电子邮件自动化、D、
为什么使用「组相对」?
GRPO 完全移除了价值模型,3、
动作包括向上、
这里有一些示例笔记本:
https://docs.unsloth.ai/get-started/unsloth-notebooks#grpo-reasoning-notebooks
基础知识/技巧
Unsloth 还分享了一些他们积累的心得:
等待至少 300 步,因为它的设计初衷是保持稳定性。例如
应用基于邻近度的评分 —— 模型会因更接近的答案获得更多奖励(例如,
PPO 公式DeepSeek 开发了 GRPO(组相对策略优化)来训练他们的推理模型。0、ChatGPT 中的👍和👎符号就可以用于 RLHF 过程。你甚至可以尝试 10 行数据,你可以将它们理解为同一件事,Mistral (7B) 或 Qwen2.5 (7B))转换为推理模型。取而代之的是多次调用奖励模型的统计数据。
你可以在多个 epoch 中重复使用数据。0、
诀窍在于对 LLM 进行采样!0、-10 等等各种乱七八糟的答案。这意味着强化学习并非低效,
本文为作者独立观点,不代表易客融商财富网立场,未经允许不得转载。
我们致力于提供一个高质量内容的交流平台。为落实国家互联网信息办公室“依法管网、依法办网、依法上网”的要求,为完善跟帖评论自律管理,为了保护用户创造的内容、维护开放、真实、专业的平台氛围,我们团队将依据本公约中的条款对注册用户和发布在本平台的内容进行管理。平台鼓励用户创作、发布优质内容,同时也将采取必要措施管理违法、侵权或有其他不良影响的网络信息。
一、根据《网络信息内容生态治理规定》《中华人民共和国未成年人保护法》等法律法规,对以下违法、不良信息或存在危害的行为进行处理。
1. 违反法律法规的信息,主要表现为:
1)反对宪法所确定的基本原则;
2)危害国家安全,泄露国家秘密,颠覆国家政权,破坏国家统一,损害国家荣誉和利益;
3)侮辱、滥用英烈形象,歪曲、丑化、亵渎、否定英雄烈士事迹和精神,以侮辱、诽谤或者其他方式侵害英雄烈士的姓名、肖像、名誉、荣誉;
4)宣扬恐怖主义、极端主义或者煽动实施恐怖活动、极端主义活动;
5)煽动民族仇恨、民族歧视,破坏民族团结;
6)破坏国家宗教政策,宣扬邪教和封建迷信;
7)散布谣言,扰乱社会秩序,破坏社会稳定;
8)宣扬淫秽、色情、赌博、暴力、凶杀、恐怖或者教唆犯罪;
9)煽动非法集会、结社、游行、示威、聚众扰乱社会秩序;
10)侮辱或者诽谤他人,侵害他人名誉、隐私和其他合法权益;
11)通过网络以文字、图片、音视频等形式,对未成年人实施侮辱、诽谤、威胁或者恶意损害未成年人形象进行网络欺凌的;
12)危害未成年人身心健康的;
13)含有法律、行政法规禁止的其他内容;
2. 不友善:不尊重用户及其所贡献内容的信息或行为。主要表现为:
1)轻蔑:贬低、轻视他人及其劳动成果;
2)诽谤:捏造、散布虚假事实,损害他人名誉;
3)嘲讽:以比喻、夸张、侮辱性的手法对他人或其行为进行揭露或描述,以此来激怒他人;
4)挑衅:以不友好的方式激怒他人,意图使对方对自己的言论作出回应,蓄意制造事端;
5)羞辱:贬低他人的能力、行为、生理或身份特征,让对方难堪;
6)谩骂:以不文明的语言对他人进行负面评价;
7)歧视:煽动人群歧视、地域歧视等,针对他人的民族、种族、宗教、性取向、性别、年龄、地域、生理特征等身份或者归类的攻击;
8)威胁:许诺以不良的后果来迫使他人服从自己的意志;
3. 发布垃圾广告信息:以推广曝光为目的,发布影响用户体验、扰乱本网站秩序的内容,或进行相关行为。主要表现为:
1)多次发布包含售卖产品、提供服务、宣传推广内容的垃圾广告。包括但不限于以下几种形式:
2)单个帐号多次发布包含垃圾广告的内容;
3)多个广告帐号互相配合发布、传播包含垃圾广告的内容;
4)多次发布包含欺骗性外链的内容,如未注明的淘宝客链接、跳转网站等,诱骗用户点击链接
5)发布大量包含推广链接、产品、品牌等内容获取搜索引擎中的不正当曝光;
6)购买或出售帐号之间虚假地互动,发布干扰网站秩序的推广内容及相关交易。
7)发布包含欺骗性的恶意营销内容,如通过伪造经历、冒充他人等方式进行恶意营销;
8)使用特殊符号、图片等方式规避垃圾广告内容审核的广告内容。
4. 色情低俗信息,主要表现为:
1)包含自己或他人性经验的细节描述或露骨的感受描述;
2)涉及色情段子、两性笑话的低俗内容;
3)配图、头图中包含庸俗或挑逗性图片的内容;
4)带有性暗示、性挑逗等易使人产生性联想;
5)展现血腥、惊悚、残忍等致人身心不适;
6)炒作绯闻、丑闻、劣迹等;
7)宣扬低俗、庸俗、媚俗内容。
5. 不实信息,主要表现为:
1)可能存在事实性错误或者造谣等内容;
2)存在事实夸大、伪造虚假经历等误导他人的内容;
3)伪造身份、冒充他人,通过头像、用户名等个人信息暗示自己具有特定身份,或与特定机构或个人存在关联。
6. 传播封建迷信,主要表现为:
1)找人算命、测字、占卜、解梦、化解厄运、使用迷信方式治病;
2)求推荐算命看相大师;
3)针对具体风水等问题进行求助或咨询;
4)问自己或他人的八字、六爻、星盘、手相、面相、五行缺失,包括通过占卜方法问婚姻、前程、运势,东西宠物丢了能不能找回、取名改名等;
7. 文章标题党,主要表现为:
1)以各种夸张、猎奇、不合常理的表现手法等行为来诱导用户;
2)内容与标题之间存在严重不实或者原意扭曲;
3)使用夸张标题,内容与标题严重不符的。
8.「饭圈」乱象行为,主要表现为:
1)诱导未成年人应援集资、高额消费、投票打榜
2)粉丝互撕谩骂、拉踩引战、造谣攻击、人肉搜索、侵犯隐私
3)鼓动「饭圈」粉丝攀比炫富、奢靡享乐等行为
4)以号召粉丝、雇用网络水军、「养号」形式刷量控评等行为
5)通过「蹭热点」、制造话题等形式干扰舆论,影响传播秩序
9. 其他危害行为或内容,主要表现为:
1)可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好影响未成年人身心健康的;
2)不当评述自然灾害、重大事故等灾难的;
3)美化、粉饰侵略战争行为的;
4)法律、行政法规禁止,或可能对网络生态造成不良影响的其他内容。
二、违规处罚
本网站通过主动发现和接受用户举报两种方式收集违规行为信息。所有有意的降低内容质量、伤害平台氛围及欺凌未成年人或危害未成年人身心健康的行为都是不能容忍的。
当一个用户发布违规内容时,本网站将依据相关用户违规情节严重程度,对帐号进行禁言 1 天、7 天、15 天直至永久禁言或封停账号的处罚。当涉及欺凌未成年人、危害未成年人身心健康、通过作弊手段注册、使用帐号,或者滥用多个帐号发布违规内容时,本网站将加重处罚。
三、申诉
随着平台管理经验的不断丰富,本网站出于维护本网站氛围和秩序的目的,将不断完善本公约。
如果本网站用户对本网站基于本公约规定做出的处理有异议,可以通过「建议反馈」功能向本网站进行反馈。
(规则的最终解释权归属本网站所有)
