GPT-5.5上下文解锁:Codex更新中的新挑战
在最新的codex更新中,开发者们发现了一个关于GPT-5.5模型上下文的问题。GPT-5.5模型的上下文限制被设定为250k,这比之前的版本有所减少。尽管在TOML配置文件中设置了model_context_window参数,但这个设置似乎在新版Codex中不起作用了。开发者尝试直接通过GPT-5.5模型本身来解决这个问题,发现效果非常迅速。
在新版Codex中,即使将model_context_window设置为500000,这个配置也可能无效。这是因为客户端会首先查询模型目录(model catalog),如果模型的slug(例如gpt-5.5)没有被正确识别,模型就会采用fallback metadata中的context_window值,这个值通常是272000。这个值还会乘以一个额外的系数,导致最终的上下文窗口大小可能有所不同。
这一发现对于使用GPT-5.5模型进行大规模文本处理的用户来说非常重要,因为它可能会影响模型处理长文本的能力。用户需要根据这一变化调整他们的应用和配置,以确保能够充分利用GPT-5.5模型的功能。
评论已关闭