摘要: Google DeepMind和南加州大学的研究人员揭露了提高大语模型(LLM)推理能力(LLM)的突破性方法。
研究人员发布了一种提升大型语言模型推理能力的突破性方法
来自Google DeepMind和南加州大学的研究人员本周在arXiV和Hugging Face上发布了他们的新“SELF-DISCOVER”提示框架,这代表了一种重大的突破,有可能彻底改变OpenAI的GPT-4和Google的PaLM 2等领先模型的性能。
这个框架承诺在解决具有挑战性的推理任务方面有着显著的提升。与传统的思维链条(CoT)等方法相比,它展示了显著的改进,性能提升高达32%。这种新颖的方法是基于大型语言模型自主发现任务内在推理结构来解决复杂问题。
框架的核心是赋予大型语言模型自主发现和利用各种原子推理模块,例如批判性思维和逐步分析,以构建明确的推理结构。
这个框架模仿了人类解决问题的策略,分为两个阶段:
- 第一阶段涉及构建与任务内在相关的连贯推理结构,利用一组原子推理模块和任务示例。
- 在解码过程中,大型语言模型按照自主发现的结构得出最终解决方案。
在各种推理任务(包括Big-Bench Hard、Thinking for Doing和Math)的广泛测试中,自主发现方法始终优于传统方法。值得注意的是,使用GPT-4进行测试时,它在这三个任务中分别达到了81%、85%和73%的准确率,超过了思维链条和计划解决技术。
然而,这项研究的意义远远超出了性能提升。
通过赋予大型语言模型增强的推理能力,这个框架为解决更具挑战性的问题铺平了道路,将人工智能推向了实现通用智能的目标。研究人员进行的可转移性研究进一步突出了构建的推理结构的普适性,与人类推理模式相吻合。
随着技术的发展,像SELF-DISCOVER提示框架这样的突破代表了语言模型能力提升的重要里程碑,也为人们展示了人工智能的未来。
想要从行业领袖那里了解更多关于人工智能和大数据的知识吗?请参加AI&Big Data Expo,该综合性活动将在阿姆斯特丹、加利福尼亚和伦敦举行。这个综合性活动与Digital Transformation Week和Cyber Security&Cloud Expo同步举办。
探索由TechForge提供的其他即将举行的企业技术活动和网络研讨会,请点击这里。