在大语言模型(LLM)中,“上下文窗口”(Context Window) 是一个非常核心的概念。 简单来说,你可以把它理解为模型的“短期记忆”容量,或者是它的“一次性阅读量”上限。 为了让你更直观地理解,我们可以从以下几个维度来拆解: 1. 形象的比喻 想象你在参加一场考试: 大语言模型(LLM) 是考生。 训练数据(Training Data) 是考生在过去几年里学到的所有知识(长期记忆)。 上下文窗口(Context Window) 是考生的桌面大小。 如果桌面很小(窗口小),你只能在桌上放一张试卷,做完这页必须把之前的扔掉才能放新的。你无法参考前面的题目,也记不住刚才写了什么。 如果桌面很大(窗口大),你可以同时摊开整本教科书、几十页的参考资料和你的答题纸。你可以随时查阅前面的内容,结合大量信息来回答问题。 2. 具体包含什么? 上下文窗口的容量计算单位通常是 Token(词元),而不是单词或字符(1000个Token大约等于750个英文单词,或400-600个汉字)。 上下文窗口 = 输入(Prompt) + 输出(Response) 这意味着,这个窗口不仅要装下你发给它...