ReAct(Reasoning + Acting)是一个由普林斯顿大学和 Google 在 2022 年提出的框架(论文:《ReAct: Synergizing Reasoning and Acting in Language Models》)。 简单来说,ReAct 是一种让大语言模型(LLM)既能“思考”又能“做事”的提示工程(Prompt Engineering)范式。 它通过让模型交替生成推理轨迹(Reasoning Traces)和任务行动(Task-specific Actions),从而解决复杂问题。 以下是关于 ReAct 框架的详细解析,以及它是如何结合推理与行动的。 --- 1. 核心理念:打破“只动脑”或“只动手”的局限 在 ReAct 出现之前,LLM 主要有两种使用模式,但都有缺陷: 1. 仅推理(Reasoning Only): 例如思维链(Chain-of-Thought, CoT)。模型会说“让我们一步步思考”,逻辑很好,但容易产生幻觉(胡编乱造事实),因为它无法获取外部实时信息。 2. 仅行动(Acting Only): 模型被训练用来调用 AP...