今天分享的是由北京大学、加州大学洛杉矶分校和北京通用人工智能研究院合作发表的一篇文章
论文题目:RAT: Retrieval Augmented Thoughts Elicit
Context-Aware Reasoning in Long-Horizon
Generation
论文链接:https://arxiv.org/pdf/2403.05313
代码地址:https://github.com/CraftJarvis/RAT
Demo地址:https://huggingface.co/spaces/jeasinema/RAT
论文概述
思维链技术通过在提示词中加入“让我们一步一步思考”的指令,模型会自动输出中间推理步骤,从而生成更加精准的答案。这种方法不仅提高了答案模型的推理能力,还增强了答案的可解释性。但是由于大模型的幻觉问题,在长任务推理中模型可能会生成看似合理但实际上并不准确的推理信息。因此这篇论文考虑在COT的基础上加上了RAG,即RAT,通过利用检索到的外部信息为大模型提供推理依据。RAT的核心包含两个关键思想:
- 利用 LLMs 的 zero-shot 能力生成初始思维链,并将思维链和原始任务放入提示中检索有助于修正错误思维链的信息;
- 采用渐进的方法,当前思维步骤会根据任务提示、过去的思维链信息以及检索到的文档进行修正。
论文核心
RAT 的核心是将 RAG 用于修正由 CoT 提示生成的每一个思维步骤中,通过查找不同参考文档来不断修正每一个思维步骤,确保推理的每一步都有准确且可靠的信息支持。
- 生成初始的思维:对于给定的任务,首先根据提示“让我们逐步思考”,让 LLM 生成逐步的思维过程, 得到
T : = { T i } i = 1 n T := \left\{ T_i \right\}_{i=1}^{n} T:={Ti}i=1n ,其中 T i T_i T