语言模型决策力大飞跃:DeepMind微调技术如何破解“纸上谈兵”?

   发布时间:2025-05-20 15:59 作者:朱天宇

近期,科技界传来一则令人瞩目的新闻,谷歌DeepMind团队携手约翰·开普勒林茨大学的LIT AI实验室,在人工智能领域取得了突破性进展。他们通过引入强化学习微调(RLFT)技术,显著提升了语言模型的决策能力。

这一创新基于一个核心观察:虽然当前的语言模型,通过海量互联网数据的训练,已经展现出了超越文本处理的潜力,能够在交互环境中依据内部知识推理做出行动选择,但其决策过程仍面临诸多挑战。具体而言,这些模型往往能够推导出正确的策略,但在实际执行时却力不从心,即所谓的“知道却做不到”的困境。它们还倾向于过度追求短期的高回报,而对于较小的模型来说,它们往往会机械地重复一些常见的动作。

传统的强化学习方法,如UCB算法,虽然在平衡探索与利用方面表现出色,但在解决模型内在的推理与行动脱节问题上却显得力不从心。面对这一难题,DeepMind团队提出了一种全新的解决方案——强化学习微调技术。该技术以模型自生成的思维链为训练信号,通过评估每个推理步骤对应的行动奖励,引导模型选择那些既逻辑自洽又实际高效的行动方案。

在实施过程中,模型会根据输入的指令和行动-奖励历史,生成一个包含推理过程与动作的序列。然后,通过蒙特卡洛基线评估和广义优势估计对这些序列进行优化。对于无效的动作,系统会触发惩罚机制。同时,奖励塑造技术不仅确保了输出格式的规范性,还为模型保留了足够的探索空间。

为了验证这一技术的有效性,研究人员进行了一系列实验。在多臂老虎机测试中,面对10臂和20臂的情况,模型的动作覆盖率均得到了显著提升。特别是在面对10臂时,2B参数模型的动作覆盖率提高了12个百分点。而在井字棋实验中,模型对阵随机对手的胜率更是提升了5倍。与最优蒙特卡洛树搜索代理的对战中,模型的平均回报也从-0.95归零。

尤为在井字棋实验中,一个27B的大模型在生成正确推理的概率上达到了87%。然而,在未进行微调之前,仅有21%的情况下该模型会执行最优动作。这一强化学习微调技术的引入,有效地缩小了这一差距,展现了其在实际应用中的巨大潜力。

这一突破性进展不仅为人工智能领域带来了新的希望,也为未来智能系统的开发提供了全新的思路。随着技术的不断进步,我们有理由相信,未来的智能系统将在决策能力上实现质的飞跃,为人类社会的发展贡献更多的力量。

 
 
更多>同类内容
全站最新
热门内容
本栏最新