Meta版o1也来了。
田渊栋团队带来新作 Dualformer ,把快慢思考无缝结合,性能提升还成本更低。
能解决迷宫、推箱子等复杂问题。
通过让模型在推理轨迹和最终答案上进行训练,再基于特定策略丢掉部分轨迹,Dualformer模型可以在模仿慢思考的同时,像快思考一样走捷径。
由此能形成更简洁的思维链(CoT)。
从结果来看,在慢思考模式下,Dualformer的最优解率达到97.6%,推理步骤减少45.5%。
自动切换快慢思考模式下,最优率也达到96.6%,且推理步骤减少59.9%。
搞定o1玩不来的迷宫游戏
o1带火了系统2(慢思考),能让大模型推理能力大幅提升。
但是随之而来的计算成本更高。
Dualformer能很好结合快慢思考,从而缓解这一问题。
它建立在Searchformer这项工作的基础上。Searchformer是一个可以解决复杂推理任务的模型,在A搜索算法生成的路径上训练而来,在路径规划任务(如迷宫、推箱子游戏)上表现良好,可以以更高效率找到最优解。
研究发现,人类会在思考过程中倾向于找捷径。为了更进一步模拟人类,Dualformer在随机推理轨迹数据上进行训练,并在训练过程中依据定制的丢弃策略丢到部分结构。
比如在处理路径规划任务时,根据搜索轨迹中的不同子句(如close子句、子句中的cost tokens、create子句等)设计了四个级别的丢弃策略,从只丢弃close子句到丢弃整个轨迹,并在训练时随机选择应用这些策略。
基于这些策略,Dualformer可以学习更简洁有效的搜索和推理过程。
在推理阶段,Dualformer可配置快速模式(仅输出解决方案)、慢速模式(输出推理链和最终解决方案)或自动模式(自行决定推理模式)。
这种灵活的推理模式设计使得模型能够根据不同任务需求和场景进行自适应调整,类似于人类思维在不同情况下的决策方式。
在具体任务上,研究设置了迷宫(Maze)和推箱子游戏(Sokoban),让模型进行路径规划。以及数学推理任务。
对比来看,在迷宫任务中,o1-preview和o1-mini模型输出的路径并不好,会“穿墙”。
快思考模式下,Dualformer的表现如下。
Dualformer以80%的最优率完成这些任务,显著优于仅基于解决方案数据训练的Solution-Only模型,后者的最优率仅为 30%。
慢思考模式表现如下。
30×30迷宫任务中,在97.6%的情况下可以达到最优解,同时推理步骤减少45.5%。
自动切换快慢思考模式下,Dualformer的最优率达到 96.6%,与Searchformer相比,推理步骤减少59.9%。
将该方法推广到Mistral-7B和Llama3-8B上,在Aug-MATH数据集上,模型的表现都有所提升。
比如在Mistral-7B模型上,当p=0.1、0.2和0.3时,Pass@20度量的基线模型,其中绝对正确率增加到61.9%。
最后,来看一下研究团队阵容。
该研究由田渊栋等人带来。
田渊栋现在是Meta FAIR的研究科学家主任,领导LLM推理、规划和决策小组。
Qinqing Zheng是FAIR的工程师,研究方向集中在生成模型和强化学习方面。她本科毕业于浙江大学,在芝加哥大学攻读博士学位。2017-2019年期间在Facebook担任研究科学家,帮助Facebook建立了广告推荐模型的分布式训练系统。
Sainbayar Sukhbaatar是FAIR的研究科学家,主要负责大模型推理和记忆方面研究。他曾先后在谷歌、DeepMind、Meta任职。
Michael Rabbat是FAIR的创始成员之一。加入Meta之前他曾是麦吉尔大学计算机工程系教授。研究领域包括机器学习、分布式算法、信号处理等。
论文地址:
https://arxiv.org/pdf/2410.09918
机器之心报道,:Panda。 基于 Transformer 的架构在多种任务上的卓越表现,吸引了世界的瞩目。 这类架构搭配大量数据,能生成大型语言模型等泛化能力强的模型,适用于真实世界用例。 然而,Transformer 架构和大型语言模型在处理规划和推理任务时存在局限性。 以往研究揭示,大型语言模型在处理多步规划或高阶推理任务时表现不佳。 为提升 Transformer 的推理与规划性能,研究者提出模拟人类思考过程的方法。 例如,思维链提示法鼓励模型预测中间步骤,进行按步骤的思考;思维树使用分支策略与评判方法,生成多个思维路径并从中选择最佳。 然而,这些技术在某些情况下导致模型性能下降,原因是自我强制效应。 数据集的有效技术可能无法在其他数据集上表现出色,这可能因为涉及的推理类型发生变化,如从空间推理转变为数学推理或常识推理。 相比之下,传统符号式规划与搜索技术展现出强大的推理能力,且计算得到的解决方案通常具备形式上的保证。 符号规划算法遵循基于规则的搜索过程,确保解决方案的准确性。 为了让 Transformer 拥有复杂推理能力,Meta FAIR 田渊栋团队提出了 Searchformer。 Searchformer 是一种针对多步规划任务,如迷宫导航与推箱子等的 Transformer 模型。 它能计算最优规划,所需搜索步骤数远少于 A∗ 搜索等传统符号规划算法。 团队提出搜索动态引导方法实现这一点。 首先,训练一个 Transformer 模型模仿 A∗ 搜索过程,然后对其进行微调,使其在更少的搜索步数内找到最优规划。 具体操作分为两步。 第一步,通过运行 A 搜索并记录计算与最优规划,整理成词序列。 以此作为训练数据,训练一个 Transformer 模型,使其针对任意规划任务生成与最优规划相对应的序列。 第二步,运用专家迭代方法提升使用搜索增强序列训练的 Searchformer。 这一过程利用包含 A 执行轨迹的数据,使 Transformer 在更少搜索步骤内生成最优解。 结果形成一种神经规划算法,其权重内嵌编码了高效推理策略,显著减少了 A 搜索所需的平均搜索步数。 实验显示,Searchformer 在不同任务上表现卓越,尤其在数据量有限时,性能优于仅使用解训练的模型,更能适应更困难的任务。 团队通过消融研究评估了训练数据和模型参数量对性能的影响。 结果显示,搜索增强型模型在较少训练数据情况下仍能表现良好,更易于扩展到复杂任务。 在迷宫导航与推箱子任务上,Searchformer 实验验证了其在不同任务上的泛化能力。 通过预测中间计算步骤,模型在数据量有限时展现出稳健性能,并能以更少搜索步骤找到最优规划。 最后,团队研究了搜索动态引导方法如何迭代提升 Searchformer 模型,使其在缩短搜索轨迹长度的同时,仍能生成最优解。 实验表明,这种方法能够有效缩短序列长度,进一步提升模型推理效率。