从「知题」到「知人」:UserRL让智能体学会「以人为本」

从「知题」到「知人」:UserRL让智能体学会「以人为本」

(来源:机器之心)

“知人者智,自知者明。”——《道德经

古人早已洞见:真正的人类智慧,不仅仅在于公式推演、掌握技艺,更是能理解他人、洞察人心。今天的『大语言模型』已能在代码、数学与工具使用上出色地完成任务,然而距离成为真正的用户伙伴,它们依旧缺少那份 “知人” 的能力。这主要源于现实交互远比解题更加复杂:

  • 现实交互中,用户目标常常未在最初完全成形(underspecification)、而是在多轮对话中逐步显露(incrementality)、并且以含蓄 / 间接的方式表达(indirectness)。

  • 在这种不确定、动态、多目标的语境里,模型不止要会解决用户需求,更要主动澄清(clarification)、持续适配(adaptation)、善用工具(tool-use)并做出明智的权衡(decision-making)。

这正是智能体面临的下一个时代课题:从 “会解题” 迈向 “懂用户”。而要真正回答这一课题,我们需要全新的动态评测框架与训练机制:不仅能测量模型在交互中的表现,还能驱动其学会在用户不确定与多目标的世界里,问之有道,断之有衡,答之有据。为此,来自 UIUC 与 Salesforce 的研究团队提出了一套系统化方案:

  • UserBench —— 首次将 “用户特性” 制度化,构建交互评测环境,用于专门检验大模型是否真正 “懂人”;

  • UserRL —— 在 UserBench 及其他标准化 Gym 环境之上,搭建统一的用户交互强化学习框架,并系统探索以用户为驱动的奖励建模。

二者相辅相成,把 “以用户为中心” 从理念落地为可复现的流程、接口与评测指标。

  • UserBench 论文链接:https://arxiv.org/pdf/2507.22034

  • UserBench 代码仓库:https://github.com/SalesforceAIResearch/UserBench

  • UserRL 论文链接:https://arxiv.org/pdf/2509.19736

  • UserRL 代码仓库:https://github.com/SalesforceAIResearch/UserRL

UserBench

先把 “用户价值” 量化,才能倒逼智能体进化

核心思想

UserBench 的核心出发点是:真正的智能体价值不在于完成任务本身,而在于是否能够理解用户、服务用户。不同于传统评测大多进行的 “做题比赛”,其通过刻画三类 “用户特征”,并将它们嵌入到可复现的环境与标准化接口之中,从而把 “用户价值” 从抽象理念转化为可量化的研究对象。

1. 设计原则

长期以来,智能体的评测大多集中在工具调用与任务完成,但却鲜少触及一个更根本的问题:模型是否真正对齐了用户的潜在与动态意图。

UserBench 的设计正是为了解决这一缺口。它把 “用户真实交互三大特征” 作为评测核心:

  • 模糊性(underspecification):用户目标往往并未完整表达;

  • 渐进性(incrementality):意图需要在对话中逐步显露;

  • 间接性(indirectness):用户偏好常常通过隐含线索体现。

在这样的环境里,模型不再是 “照题答题”,而是必须主动追问、澄清约束,并在复杂条件下做出连贯而明智的决策。

UserBench 设计与交互流程示意图

2. 环境与数据构造

UserBench 的标志性设计是旅行规划任务,覆盖五个子场景。每个维度都设置了数十条隐式偏好表述,如 “行程很紧” 暗含 “直飞 / 少中转”,要求模型在与环境中的模拟用户进行交互时,需要理解用户每一句话背后的语义逻辑。同时,环境中内置了稳定数据库后段,并且搜索返回采用了混合式选项进一步增加了模型认知难度:

  • 正确项:完全满足全部偏好;

  • 错误项:违背至少一条偏好;

  • 噪声项:与需求不符或信息缺失。

这使得模型必须学会过滤噪声、权衡约束,而非直接机械化地比对。UserBench 同时也进行了数据难度分层,根据用户偏好的复杂程度涵盖了 Easy/Medium/Hard 三档,这种设计让其既保有真实性(场景、语言与需求均来自真实语料指导下的 LLM 用户模拟),又具备实验可控性。

3. 以工具为界面:标准化交互接口

以往针对模型,用户以及环境的三方交互接口复杂。而在文章中,这种复杂交互被抽象为了三类原语操作:

  • Action:与用户对话(澄清、追问、确认偏好);

  • Search:检索数据库(返回混合候选集,模拟真实世界的不完美检索);

  • Answer:提交推荐(直接完成用户需求)。

这三类操作高度浓缩了 “理解 — 检索 — 决策” 的链路,使不同任务可以在同一坐标系下被评估与比较。在 UserRL 训练框架中,这个标准化接口被保留并得以进一步拓展,使模型训练也变得可以自由定制化和拓展。

UserBench 上不同模型主要评测结果以及分析指标

4. 评价指标与关键发现

UserBench 的评分体系兼顾结果与过程:

  • 核心指标:归一化得分。对于每一项旅行需求,在数据库中选到最优解记 1.0;选到正确但次优解记 0.8;其余记 0。在一个问题中用户需求可能会涵盖多个场景(例如交通和酒店住宿),需要被测试模型深入挖掘,理解偏好,再进行判断和抉择。

  • 除此之外,文章还提出了若干过程指标以进行综合分析:

  • Valid Search / Action Attempt:搜索与用户对话操作的有效率;

  • Preference Elicited:偏好在用户交互是否被主动 / 被动引出。

主要结论:模型并非输在 “不会算”,而是常常没能问对问题、没能挖出关键信息。换言之,真正的挑战不是推理链,而是智能体与人的交互中进行有效的 “用户价值” 提炼与捕捉。

关键发现

  • 单选比多选难很多:对于每一项旅行需求,如果把模型可回答的次数限制为一次,平均分数下滑约 40%,暴露了 “只能给一次答案” 时的抉择困难。

  • 用户偏好揭示率普遍偏低:主流模型仅~20% 的答案完全贴合全部用户意图,即便是强模型,通过主动互动挖掘到的偏好不到 30%,显示了当下模型 “主动问对问题” 能力仍然欠缺。

  • 会用工具 ≠ 真懂用户:模型普遍有效搜索 > 80%,但有效对话显著更低,说明 “循证澄清” 的难度更高。

  • 难点在 “单一维度的偏好多而复杂”:当总偏好数固定时,把偏好更平均地分散到多个旅行需求中更容易,而集中在少数需求上会显著拉低分数,这揭示了本质挑战来自局部约束的组合复杂度。

  • 更多对话轮数≠更好表现:盲目拉长交互轮数并不能带来收益;同时,命中答案的 “时效性”(更早给出有效答案)与整体模型对话质量也并不总是正相关:小模型 “早早猜中” 整体也不如大模型的 “稳扎稳打”。

盲目增加交互轮数并不能增强交互质量

UserRL

把 “能测试” 扩展为 “会训练”

核心思想

UserRL 的出发点相比更加直接:在 UserBench 抽象出的三个原语接口之上,构建一个统一的 gym 环境,把 User-in-th-Loop 的多轮交互转化为一个可训练的强化学习问题。这意味着,智能体不再只是完成一次问答,而是要在一个有明确定义的交互环境中,通过多轮对话和工具调用来优化回报。

UserRL 中进行训练的八个用户中心场景设计

1. 八大 Gym Environments:能力光谱的全覆盖

UserRL 对接了八类环境,覆盖从个性化推荐到复杂推理的多维能力:

  • TravelGym:侧重个性化偏好挖掘与多目标权衡;

  • TauGym:强调工具编排与用户任务实现;

  • PersuadeGym:模拟论证与说服场景,关注对抗式对话能力;

  • TurtleGym:创造性推理环境(“海龟汤” 游戏);

  • TelepathyGym:意图猜测与假设检验;

  • FunctionGym:数理模式识别与规律发现;

  • IntentionGym:针对真实场景的意图澄清;

  • SearchGym:外部知识检索与基于检索的问答。

所有环境都统一在 Action / Search / Answer 的接口下,但考察指标有所差异。这种统一接口 + 多元任务的设计,使得 UserRL 既能横向比较不同方法,又能纵向推动能力迁移。

UserRL 完整训练框架示意图

2. 用户模拟与多轮 Rollout

在每个环境中,用户同样由 LLM 进行模拟,并且可以更换不同用户模拟模型,以实现交互的多样性。UserRL 框架的核心特点包括:

  • 确定性任务状态 + 可验证奖励函数;

  • 自然语言互动,保留了动态模拟用户对话的开放性;

  • 多轮 rollout,让模型在交中做出策略性的交互选择。

3. 奖励建模:让过程价值变成可学信号

在 UserRL 中,我们重点探索了双层奖励设计:回合层(Turn-level)以及轨迹层(Trajectory-level)。在回合层中,我们重新映射 Gym 环境在每一轮中反馈的奖励信号,探索了多种方法以区分不同层的重要性:

  • Naive:直接用环境奖励,但往往非常稀疏,在实际环境中并不适合训练。

  • Equalized:为所有回合赋予同样的奖励,确保所有铺垫性动作不被忽视。

  • Reward-to-Go (R2G):把未来的预期奖励收益折扣回流,以体现当前轮次对于未来奖励的价值。

  • Exponential Mapping (EM):对原始奖励做非线性映射,让某些小进展也能带来正反馈奖励信号。

在轨迹层中,我们将每一轮的奖励反馈整合成与用户多轮交互的总体得分,以便于后续适配 GRPO 等下游各种 RL 算法,其中我们主要探索了两种整合方式:

  • Sum:直接累积每回合的奖励,以衡量整体任务完成度。

  • R2G:对早期进展赋予更高价值,更强调任务完成效率。

在实际训练中这两层奖励可以灵活组合以适配不同交互任务。

UserRL 训练主要试验结果

4. 评价指标与关键发现

文章主要采用了 GRPO 算法进行优化:在同一 query 下采样多条轨迹,组内归一化优势,再结合回合与轨迹奖励进行联合优化。同时,在 RL 训练之前,模型预先进行了 SFT 小规模优化,实验发现 SFT 冷启动能够有效帮助后续 RL 训练。

UserRL 用其中的五个 Gym 的训练集数据进行训练,另外三个 Gym 则作为 OOD 环境进行测试。所有主实验均采用 Qwen3-32B 作为用户模拟。不同任务的测试指标不尽相同,但是都是以准确度作为衡量基础。

主要结论:模型的提升并非来自更复杂的算力堆叠,而是得益于对过程价值的刻画与利用。换言之,真正的突破点不在于 “终局答案对不对”,而在于能否在多轮交互中持续累积小进展、尽早对齐用户意图,并把这种过程性价值转化为学习信号。

关键总结果

  • 回合均等 + 轨迹 Reward-to-Go 在 4B/8B 模型上最稳健、平均最好;反观回合均等 + 轨迹 Sum 最弱,说明轨迹级计分比回合级细分更具有决定性价值。

  • 经过 UserRL 训练的 Qwen3 在 TravelGym、PersuadeGym、IntentionGym 等交互型任务上超过强闭源模型;跨 8 个 gym 的平均也领先闭源对照,体现出 “针对用户交互的 RL 训练” 能实打实提升能力。

  • SFT 冷启动是必要条件:先做 SFT 再 RL,能显著避免早期坍塌,部分任务收益超 100%。

  • 用户模拟器选择很关键:用 GPT-4o 做模拟用户训练的模型下游更强;但 Qwen3-32B 作为开源模拟器具备性价比高且可迁移的优势。

SFT 冷启动(左侧对照)与 GPT-4o 作为模拟用户(右侧对照)均能带来更好的 RL 效果

结语:从 “完成任务” 到 “成就用户”

UserBench 提供了一面 “明镜”,让我们得以量化模型是否真正理解用户;UserRL 则把这面镜子变成 “磨刀石”,推动模型在交互中不断迭代,学会在模糊与多目标之间提炼价值。

论语》有云:“君子和而不同。” 未来的通用智能体,也应当在理解用户多元价值的同时,学会和而不同:既能尊重偏好,又能提供建设性选择;既能满足需求,又能引导更优解。这,才是通向真正通用智能的必要一课。

所有环境、数据以及训练框架已开源,欢迎研究人员探索。

特别声明:[从「知题」到「知人」:UserRL让智能体学会「以人为本」] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

最壕星女郎藏8年公开身份,一年两亿零花钱,曾当众跪拜『赵本山』

然而,她可能还不知道,这只是她传奇人生的开端,更多的挑战和机遇正等待着她。就在这种矛盾和压力下,2012年,黄圣依做出了一个令人惊讶的举动——她在一台晚会上公开跪拜『赵本山』。 和宋小宝的合作并没有给她带来预…

最壕星女郎藏8年公开身份,一年两亿零花钱,曾当众跪拜『赵本山』

恩替卡韦片过量使用会发生不良反应吗(恩替卡韦过量服用会怎么样)

恩替卡韦片为药物通用名,商品名称一般为博路定。恩替卡韦片是一种抗乙肝病毒药物,主要通过抑制乙肝病毒DNA🧬聚合酶来减少病毒复制。该药主要用于治疗慢性成人乙型肝炎,并且对于病毒复制活跃、血清丙氨酸氨基转移酶持续升高的情况较为有效。

恩替卡韦片过量使用会发生不良反应吗(恩替卡韦过量服用会怎么样)

【资源速递】一文了解Nature期刊数据库(资源下载官网)

NaturePortfolio期刊包括国际领先的《自然》周刊及其旗下一系列研究和综述类期刊,也包括涵盖广泛学科领域的开放获取期刊《自然-通讯》与《科学报告》。此外,Nature Portfolio旗下还有…

【资源速递】一文了解Nature期刊数据库(资源下载官网)

NBA找了个“顶级外援”,用AI重塑篮球比赛

它能够实时处理球员的移动轨迹,并训练出能够“看懂战术”的AI模型,从而为NBA打开了一扇通往数据驱动决策的大门。 个性化推荐: NBA App能够根据用户的个人喜好(例如,喜欢某位球星或某支球队),通过AI算…

NBA找了个“顶级外援”,用AI重塑篮球比赛

媒体:对鸡排哥最好的关心是不添堵 守护质朴的美好(鸡排哥是谁)

国庆期间,江西景德镇的“鸡排哥”成为各地“顶流”。他凭借真诚、幽默与性价比高的服务从小摊主一跃成为当地文旅代言人。许多网友不远千里只为品尝他家的鸡排或听一句他的“幽默金句”。然而,在巨大的人流量下,“鸡排哥”也感到疲惫不堪

媒体:对鸡排哥最好的关心是不添堵 守护质朴的美好(鸡排哥是谁)