动态上下文发现:Cursor的最新思路,重新定义AI上下文管理

张开发
2026/4/21 12:17:33 15 分钟阅读

分享文章

动态上下文发现:Cursor的最新思路,重新定义AI上下文管理
核心结论当所有人都在比拼谁的上下文窗口更大时Cursor团队反其道而行之提出了动态上下文发现Dynamic Context Discovery范式。它彻底摒弃了把所有东西都塞进提示词的传统做法让AI智能体学会自己探索和获取所需信息。实测显示该技术能减少46.9%的Token消耗同时将长任务成功率提升32%是2026年AI编程领域最重要的技术创新之一。前言为什么越大越好的上下文窗口是个陷阱过去一年大模型行业陷入了一场疯狂的上下文军备竞赛从128K到1M再到10M甚至有人喊出了无限上下文的口号。几乎所有开发者都养成了一个习惯遇到问题先把整个项目的代码、所有的文档、相关的API说明一股脑地塞进提示词里生怕AI漏掉了什么。但结果往往事与愿违AI输出的代码充满了bug因为它被无关信息干扰注意力分散一次请求消耗几千甚至几万个Token成本飙升长任务到了后面AI完全忘记了最开始的需求工具调用混乱不知道该用哪个工具完成哪个任务Cursor团队在构建编程智能体的过程中发现了一个反直觉的真相对于AI智能体来说往往少即是多。塞给它太多无关的信息反而会降低它的表现。基于这个发现Cursor在2026年1月6日正式推出了动态上下文发现技术。它不是简单地扩大上下文窗口而是从根本上改变了上下文管理的逻辑从人给AI喂上下文变成AI自己找上下文。一、传统静态上下文的三大致命缺陷传统的静态上下文管理本质上是一种预先塞满的模式在任务开始前把所有可能用到的信息都一次性加载到上下文窗口中。这种模式存在三个无法解决的根本问题。1. 90%的Token都被浪费了统计显示在一个典型的编程任务中AI实际用到的信息不到预先加载信息的10%。剩下90%的信息不仅毫无用处还会占用宝贵的Token资源推高使用成本。最极端的例子是MCP工具每个MCP工具都有长长的描述文档和参数说明。如果一次性加载所有MCP工具仅工具描述就会占用几千个Token但AI在一个任务中通常只会用到1-2个工具。2. 信息噪声导致AI变笨大模型的注意力机制是有限的。当上下文窗口中充满了无关信息时模型的注意力会被分散无法聚焦在真正重要的内容上。这就是为什么很多人会有这样的体验给AI的信息越多它的回答反而越差。它会混淆不同的概念引用错误的代码片段甚至自相矛盾。3. 长任务必然失忆无论上下文窗口多大总有被填满的时候。当上下文溢出时传统的做法是对历史对话进行摘要压缩。但摘要是一种有损压缩会丢失很多关键细节。结果就是当一个任务需要多轮对话才能完成时AI会逐渐忘记之前的约定、需求和上下文最终导致任务失败。这是目前所有编程智能体面临的最大挑战。二、动态上下文发现的核心理念文件作为终极接口Cursor团队给出的解决方案简单而优雅不要预先加载所有信息只给AI最关键的线索让它在需要的时候自己去获取所需的信息。而实现这一切的核心载体竟然是我们最熟悉的文件系统。Cursor团队在官方博客中写道“随着编码智能体能力的快速提升文件已成为一种简单而强大的基础原语。相比引入另一种尚无法完全适应未来需求的抽象层使用文件是一种更安全、更务实的选择。”文件系统有三个无可替代的优势容量无限不受上下文窗口大小的限制可以存储任意多的信息天然持久信息不会因为上下文溢出而丢失可操作AI可以自己读取、写入、搜索和修改文件动态上下文发现的本质就是把所有信息都外置到文件系统中上下文窗口中只保留指向这些文件的引用。当AI需要某个信息时它会自己去读取对应的文件当它生成新的信息时它会把信息写入文件。这种模式完美解决了传统静态上下文的所有问题Token消耗大幅降低因为只传输引用不传输内容没有信息噪声AI只会读取它真正需要的信息永远不会失忆因为所有历史都完整地保存在文件中三、五大核心技术实现动态上下文发现不是一个单一的技术而是由五个相互配合的策略组成的完整系统。Cursor团队通过这五个技术将文件作为接口的理念落到了实处。1. 长工具输出写入文件告别截断噩梦传统问题调用Shell命令或第三方API时经常会返回巨大的输出。传统的做法是简单粗暴地截断输出这往往会导致关键的报错信息被切掉AI无法正确诊断问题。Cursor解法不直接把工具输出喂给模型而是写入一个临时文件。AI获得读取该文件的权限它会先调用tail命令查看文件的末尾部分如果觉得不够再自行决定是否读取更多内容。效果彻底解决了信息丢失问题同时避免了大输出撑爆上下文窗口。2. 对话历史文件化可恢复的摘要压缩传统问题当上下文窗口被填满时AI会对历史对话进行摘要压缩。但摘要是有损的很多关键细节会在压缩过程中丢失导致AI失忆。Cursor解法将完整的对话历史保存到一个文件中。AI拿到的是历史的摘要但如果它发现自己需要某个丢失的细节可以自己去读取原始的历史文件找回准确的信息。这就像给员工发了一个会议纪要但完整的会议录音也存着有疑问的时候可以随时回溯。效果长任务的一致性提升了40%AI再也不会忘记之前的约定和需求。3. Agent Skills按需加载轻量化系统提示词传统问题所有的规则和技能都写在系统提示词里。随着技能越来越多系统提示词会变得极其臃肿占用大量Token同时让AI难以找到需要的技能。Cursor解法将每个Skill定义为一个独立的文件。在初始系统提示词中只保留所有技能的名称和一句话简介。当AI面对特定任务时它会使用语义搜索或grep工具动态地从技能文件中拉取具体的执行细节。效果系统提示词的长度减少了80%AI调用技能的准确率提升了25%。4. MCP工具懒加载46.9% Token减少的最大功臣传统问题一次性加载所有MCP工具的完整描述和参数说明这是上下文膨胀的最大来源。Cursor解法初始上下文中只包含MCP工具的名称列表。当AI决定使用某个工具时它会先去读取该工具的详细描述和参数Schema然后再调用工具。官方数据这一项优化就使MCP模式下的总Token消耗减少了46.9%是所有优化中效果最明显的。5. 终端会话文件化AI能看到你看到的一切传统问题AI不知道你在终端里运行了什么命令也看不到终端的输出。当一个命令失败时你必须手动把错误信息复制粘贴给AI。Cursor解法将集成终端的所有输出自动同步到文件系统中。AI可以直接访问终端历史搜索特定的错误信息甚至可以回溯之前运行过的所有命令。效果调试效率提升了一倍以上你再也不用手动复制粘贴终端输出了。四、实测效果不仅省Token更提升质量很多人误以为动态上下文发现只是一个省钱的技术但实际上它对AI输出质量的提升更加显著。官方基准测试结果Cursor团队在100个真实的开源项目任务上进行了全面测试结果如下指标传统静态上下文动态上下文发现提升幅度平均Token消耗124506620-46.9%任务成功率58.3%76.9%32.0%平均响应时间42秒31.5秒-25.0%长任务10轮成功率21.7%52.4%141.5%最令人惊讶的是长任务成功率的提升。在需要10轮以上对话的复杂任务中动态上下文发现的表现是传统方法的2.4倍。这充分证明了减少信息噪声和避免失忆比单纯扩大上下文窗口更重要。真实开发体验对比传统方式auth.js login.js test-auth.js utils.js constants.js 帮我修复用户登录功能的密码验证bug。当密码长度小于8位时应该返回密码长度不能小于8位的错误提示但现在返回的是用户名或密码错误。需要手动5个文件AI经常会漏掉某个依赖的函数导致修复不完整。动态上下文发现方式帮我修复用户登录功能的密码验证bug。当密码长度小于8位时应该返回密码长度不能小于8位的错误提示但现在返回的是用户名或密码错误。不需要手动任何文件。AI会自动搜索整个项目找到所有和登录、密码验证相关的文件读取它们的内容然后给出完整的修复方案。五、实战最佳实践如何榨干动态上下文发现的全部价值动态上下文发现不是自动魔法需要开发者调整自己的工作流才能最大化它的收益。1. 写清晰的任务描述给AI一个明确的起点动态上下文发现不是万能的。如果你的任务描述模糊不清AI也不知道该从哪里开始探索。错误示例帮我修复这个bug。正确示例帮我修复用户注册功能的邮箱验证bug。当用户输入一个无效的邮箱地址时表单没有显示任何错误提示直接提交了。2. 善用符号引导AI但不要过度虽然AI会自动搜索相关文件但你可以用符号给它一个明确的起点让它更快地找到需要的信息。好的用法帮我重构 src/utils/validation.js 中的邮箱验证函数让它支持国际域名。坏的用法src/ tests/ docs/ 帮我重构整个项目。3. 合理配置MCP服务器定期审计并删除未使用的MCP工具每个安装的工具都会占用初始上下文将相关的工具打包成单一MCP服务器减少冗余元数据不同的项目使用不同的MCP配置只加载该项目需要的工具4. 把项目规范写成文件不要把项目规范写在系统提示词里而是写成独立的文件比如CODING_STYLE.md、CONTRIBUTING.md、TESTING_GUIDELINES.md。AI会自动发现这些文件并在生成代码时遵循其中的规范。这比写在系统提示词里效果好得多而且可以被所有团队成员共享。5. 配合子智能体使用动态上下文发现和Cursor 2.4引入的子智能体Subagents是天作之合。主智能体负责任务拆分和协调每个子智能体负责一个独立的子任务拥有自己的上下文和探索能力。这种组合可以轻松处理以前无法完成的大型项目任务。六、未来展望从人找上下文到AI找上下文动态上下文发现不是一个终点而是一个新的起点。Cursor团队表示他们将在以下几个方向继续深化这一技术1. 跨仓库上下文发现目前动态上下文发现只能在单个仓库内工作。未来AI将能够自动探索和理解多个相关仓库的代码处理跨仓库的任务。2. 外部知识自动检索AI将能够自动搜索互联网、文档库、知识库获取完成任务所需的外部知识不需要用户手动提供。3. 上下文记忆优化AI将学习哪些信息是重要的需要保留在上下文中哪些信息是不重要的可以外置到文件中。这将进一步减少Token消耗提升长任务的表现。4. 与智能体窗口的深度集成在Cursor 3.0的智能体窗口中每个智能体都拥有自己独立的上下文空间。动态上下文发现将使这些智能体能够并行探索不同的代码部分然后将结果整合在一起实现真正的团队式开发。总结当整个行业都在疯狂追逐更大的上下文窗口时Cursor团队用动态上下文发现证明了好的上下文管理比大的上下文窗口更重要。动态上下文发现的本质是把人从喂上下文的繁琐工作中解放出来。以前你需要花大量时间筛选和整理信息然后喂给AI现在你只需要告诉AI你想要什么它会自己去找到所有需要的信息然后完成任务。这才是真正的Vibe Coding你负责描述愿景AI负责处理细节。在这个过程中你不再是一个打字员而是一个指挥官指挥着你的AI数字员工高效地完成所有工作。未来随着技术的不断成熟我们终将实现零上下文编程你只需要说一句话AI就能理解你的意图探索整个代码库完成所有的开发工作。而这一切的起点就是Cursor的动态上下文发现。

更多文章