在编写 Prompt(提示词)时,大语言模型(LLM)产生“幻觉”(一本正经地胡说八道)的主要原因通常是缺乏明确的边界和过度依赖内部参数中的模糊记忆。 为了有效降低幻觉,我们可以通过以下几类约束技巧来给模型戴上“紧箍咒”。以下是常用且非常有效的技巧,附带了具体的 Prompt 示例: --- 一、 信息源约束(最核心的技巧) 不要让模型在全网海量数据中“凭空想象”,而是给它提供具体的上下文,并严格限制它只能基于此回答。 1. 严格基于给定上下文回答 (Grounding) 技巧: 明确告诉模型“只能参考我给你的内容”。 Prompt 示例: > “请严格且仅基于以下用 ``` 包裹的参考资料回答问题。绝对不要使用你自己的预训练知识。如果参考资料中没有相关信息,请直接回答‘资料中未提供相关信息’。” 2. 强制要求引用原文 (Citation) 技巧: 要求模型在给出结论时,必须附带原文的精确引用,这会大幅降低捏造数据的概率。 Prompt 示例: > “在回答时,请在每个观点后面用括号注明该观点出自参考资料中的哪一段/哪句话。如果无法找到原文对应的句子,请不要输出该观点。” 二、...