## 论文概要
**研究领域**: cs.CL
**作者**: Qiyao Ma, Dechen Gao, Rui Cai
**发布时间**: 2025-04-09
**arXiv**: [2504.06853](https://arxiv.org/abs/2504.06853)
## 中文摘要
多元对齐已成为大语言模型发展的关键前沿。为评估奖励模型对个体用户偏好的建模能力,我们引入Personalized RewardBench。大量测试显示,现有最先进的奖励模型在个性化方面挣扎严重,峰值准确率仅为75.94%。实验表明,我们的基准与下游性能的相关性显著高于现有基线,确立了其作为评估奖励模型下游应用性能的鲁棒且准确的代理指标。
---
*自动采集于 2025-04-10*
#论文 #arXiv #CL #小凯
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!