摘要: 研究人员介绍了一种新颖的方法,称为“自然语言嵌入式程序”(NLEP),以提高大语模型(LLMS)的数值和象征性推理能力。
研究人员提出了一种名为自然语言嵌入程序(NLEPs)的新方法,旨在提高大型语言模型(LLMs)的数字和符号推理能力。
LLMs如CHAT GPT在各种任务上表现出色,但在需要数字或符号推理的问题上往往表现不佳。
NLEPs遵循四步问题解决模板:调用必要的软件包,导入所需知识的自然语言表示,实现解决方案计算功能,并将结果以自然语言输出,可选择数据可视化。
研究人员发现,NLEPs使GPT-4在各种符号推理任务上实现了超过90%的准确率,比任务特定提示方法高出30%。
此外,NLEPs可以通过在本地运行程序来提高数据隐私,无需将敏感用户数据发送给外部公司进行处理。该技术还可以提高较小语言模型的性能,而无需昂贵的重新训练。
然而,NLEPs依赖于模型的程序生成能力,可能不适用于在有限数据集上训练的较小模型。未来的研究将探讨使较小LLMs生成更有效NLEPs的方法,并研究提示变化对推理稳健性的影响。
这项研究部分得到了香港感知与互动智能中心的支持,将于本月晚些时候在北美计算语言学协会年会上展示。
(照片由Alex Azabache提供)
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...