标签:自我纠正

香港城市大学研究:大型语言模型的自我纠正——《Learning from Correctness》揭示推理步骤的新视角

本文介绍了香港城市大学与华为诺亚方舟实验室合作的一项研究成果。主要作者姚宇璇是香港城市大学计算机系的二年级博士生,专注于大模型的复杂推理和生成技术,导师为宋林琦教授。此外,华为诺亚方舟实验室的研究员吴涵和郭志江也参与了这项研究。 尽管大型语言模型(LLMs)在许多领域取得了显著进展,但依然存在产生幻觉、生成有害以及不遵循人类指令的问题。一种流行的解决方案是通过自我纠正机制来改进模型,即让模型能够自行检测并修正错误。然而,现有的一些自我纠正方法依赖于复杂的提示工程、人类反馈或外部工具,这...