新闻动态
Meta AI新突破,模型学会走捷径,推理成本直接腰斩
发布日期:2025-10-29 03:59:37 点击次数:99

最近科技圈里有个事儿挺有意思,就是那个做脸书(Facebook)的公司Meta,他们的人工智能研究团队又搞出了一个新东西。

简单来说,他们想办法让AI大模型学会了“偷懒”,但这个懒偷得非常高明,不但没影响工作质量,反而效率大大提升。

这事儿听起来有点玄乎,就像一个平时埋头苦干的学生,突然有一天开窍了,学会了总结学习方法,做题速度飞快,正确率还一点没降。

我们得先说说现在的人工智能大模型普遍存在的一个“毛病”。

你可能也发现了,现在你跟那些聊天机器人说话,比如问它一个稍微复杂点的问题,它会给你一大串的回答,把每一步的思考过程都原原本本地写出来。

这在学术上叫“思维链”,就是模仿人一步步思考的样子。

比如你让它算一道数学题,它会从“解:设未知数x为……”开始,一步步列公式、化简、求解,写得清清楚楚。

这么做的好处是逻辑严谨,不容易出错,也能让你看明白它是怎么想的。

但坏处也很明显,就是太啰嗦了。

同样一个类型的题,下次再遇到,它还是会把这一整套详细的过程原封不动地再走一遍。

这就好比一个厨师,每次炒菜前都要把菜谱从头到尾念一遍,哪怕这道菜他已经做了一千次了。

这种“啰嗦”不仅让我们看得累,更关键的是,它消耗了大量的计算资源。

人工智能的每一次思考,每一个字的输出,背后都是电脑芯片在高速运转,这都是要耗电、花钱的。

所以,如何让AI在保持聪明的同时,变得更简洁、更高效,就成了一个大难题。

Meta的研究人员们就从这里找到了突破口。

他们发表了一篇学术论文,题目叫《元认知复用:将循环的LLM推理转化为简洁的行为》。

这个题目听起来很学术,但翻译成大白话就是:让AI学会反思自己的思考过程,把那些经常用到的、重复的解题步骤,总结成一个个“套路”或者说“小妙招”,然后存起来。

下次再遇到类似的情况,就不用从头想了,直接把这个“套路”拿出来用就行。

这个过程,他们起名叫“元认知复用”。

“元认知”这个词,意思就是“对思考的思考”,说白了就是自我反思的能力。

具体是怎么做的呢?

他们设计了一套流程。

第一步,先让一个非常厉害的“老师”AI模型,用最传统、最详细的方法去解决一大堆难题,比如数学竞赛题。

这个过程就像一个学霸在刷题,并且把每一道题的详细解题步骤都工工整整地写在草稿纸上。

第二步,也是最关键的一步,就是让这个AI回头看自己的这些“草稿纸”,进行复盘和总结。

它会分析,在解决这些不同问题的过程中,有没有哪些步骤是反复出现的?

比如,它可能会发现,在处理很多概率问题时,总会用到一个叫做“容斥原理”的方法来避免重复计算;或者在解一类代数方程时,总会先进行“分母有理化”这个操作。

一旦识别出这些高频出现的解题模式,AI就会给这个模式起个名字,写个简单的说明,把它变成一个标准化的“行为指令”。

第三步,就是把所有这些总结出来的“行为指令”收集起来,放进一个专门的数据库里。

研究人员把这个数据库形象地称为“行为手册”。

这本手册就像一本武功秘籍,随着AI解决的问题越来越多,里面的招式和心法也会越来越丰富。

比如,“计算所有可能结果”可以是一个招式,“运用勾股定理”可以是另一个招式。

有了这本“行为手册”之后,AI的工作方式就彻底改变了。

当它再遇到一个新问题时,它不再是像以前那样,从最基本的公理和定义开始一步步往下推导。

它会先分析问题,然后去自己的手册里查找,看看有没有现成的“招式”可以用。

比如说,一道复杂的概率题,它一看,发现可以用“计算总数”、“分别计算A和B事件”、“使用容斥原理”这三个现成的招式组合起来解决。

于是,它的回答就会变得非常简洁,可能就是几句话:“根据题意,调用‘计算总数’行为,得到总可能性为X。调用‘A事件’行为,得到Y。调用‘B事件’行为,得到Z。最后调用‘容斥原理’行为,综合计算得出最终答案。”整个过程干净利落,省去了中间大段的铺垫和重复性描述。

效果怎么样呢?

论文里的数据非常惊人。

在一个叫MATH的公开数学题测试集上,用了这个新方法之后,AI模型在回答问题时,平均下来所需要的计算步骤(也就是专业术语里的token数量)减少了将近一半,最多能减少46%。

这意味着,同样一道题,AI“想”的时间和精力少了一半,但做出来的答案准确率不仅没有下降,在某些情况下甚至还有一点点提升。

这就好比原来需要写两页纸的解题过程,现在半页纸就搞定了,而且答案还是一样对。

这对于降低AI的运营成本、提高反应速度来说,意义非常重大。

更有意思的是,这个方法还能用来“传帮带”。

Meta的研究人员让那个聪明的“老师”模型,用这种高效简洁的方式生成大量的解题范本,然后用这些浓缩过的、高质量的范本去训练那些规模更小、能力稍弱的“学生”模型,这里面也包括了我们国内很优秀的“通义千问”(Qwen)系列模型。

结果发现,这些“学生”模型学得特别快,它们不光学会了知识点,更重要的是学会了这种高效的、结构化的思考方式。

用这种方法训练出来的模型,比用传统啰嗦答案喂出来的模型,明显更聪明,也更省资源。

这就好比一个经验丰富的老工匠,他教徒弟不只是手把手教每个动作,更是把自己的经验总结成几句口诀,让徒弟能更快地领悟到核心技巧。

总的来说,Meta的这项研究,给人工智能的发展提供了一个全新的思路。

它让AI不再是一个只会埋头苦算、记忆力超强的“书呆子”,而是开始学会像人类专家一样,去积累经验、总结规律,并把这些经验内化成一种近乎本能的“直觉”。

我们人类学习新知识的过程不就是这样吗?

一开始我们严格按照课本上的步骤来,做得多了,自然而然就总结出了自己的方法和技巧,处理问题也就越来越得心应手。

这项技术让AI从“慢思考”向“快反应”迈出了一大步,让我们看到了未来AI变得更高效、更实用,也更像一个真正有智慧的伙伴的可能性。

它解决了一个很实际的问题:如何让聪明的AI用更少的力气,办更多的事。

友情链接: