本文深入剖析了Coding Agent的核心模块,重点介绍了Agent Harness在提升LLM应用效能中的关键作用。文章详细阐述了Coding Harness的六大核心组件:实时仓库上下文、prompt上下文组装与Cache复用、工具访问与使用、上下文管理、结构化会话记忆、Subagent任务执行。通过这些组件的协同工作,极大提升了LLM在编程场景中的表现,远超普通多轮对话模式。对于希望利用大模型提升编程效率的小白和程序员,本文提供了宝贵的实践指导。
背景
根据Sebastian Raschka老师的博客和Mini Coding Agent项目分析作为Coding Agent的核心模块
"Agent"已经成为当下最火的的话题之一当前实用搭载LLM 系统的大量进步,并不单纯来自模型本身的提升,而是来自我们使用模型的方式。在很多真实场景里,Agent Harness成为了重要影响因素——工具调用、上下文管理、记忆机制—的作用,丝毫不亚于模型本身。
claude code运行过程
Claude Code、Codex 这类系统,即便是接入的模型的是和普通聊天界面一样的模型,实际表现出来的能力却要强得多。
本文用到的关键术语
- LLM:原始模型
- Reasoning 模型:经过优化,能输出中间推理轨迹并完成更多自我验证的 LLM
- Agent:结合模型、工具、记忆与环境反馈的循环系统
- Agent Harness:围绕智能体的软件脚手架,负责管理上下文、工具调用、提示词、状态与控制流
- Coding Harness:Agent Harness 的专用形态,面向软件工程,重点管理代码上下文、工具、执行与迭代反馈
- 智能体框架(Agent Harness):范围更广,不限于编程(如 OpenClaw)
- 编程框架(Agentic Coding Harness):专门围绕模型构建的脚手架,用于高效编写与修改代码,Codex 和 Claude Code 都属于此类
Claude Code、Codex CLI 一类的Coding Agent
本质上,把LLM套了一层外壳,用最新的术语叫agentic coding harness,目标是让coding工作更高效、更便捷。
Claude Code CLI、Codex CLI 以及 Mini Coding Agent
Coding agent 的关键,不只是选用哪个模型,而是一整套Harness系统:代码仓库上下文、工具设计、提示词缓存稳定性、记忆能力,以及多轮对话的连续性。
LLMs、Reasoning 模型与 Agents区别
三者的关系并不复杂:
- LLM:核心是下一个 Token 预测模型
- 推理模型:本质还是 LLM,但经过专门训练或 prompt 工程优化,会在中间推理、答案验证、候选搜索上投入更多计算
- 智能体:构建在模型之上的一层控制循环——给定目标后,由智能体层来决定下一步查什么、调哪些工具、如何更新状态、什么时候停下来
核心思想对比:
- LLM 是引擎
- 推理模型是强化版引擎(更能干,成本也更高)
- Agent Harness 是驾驶系统,帮我们真正驾驭这台引擎
LLM 和推理模型也可以脱离 harness 独立使用。
传统 LLM、推理 LLM 以及封装在 agent harness 中的 LLM 之间的关系
一句话总结
更好的 LLM 为推理模型提供了更优质的基础,Harness 则进一步挖掘推理模型的潜力。
当然,LLM 和推理模型脱离框架也能完成编码任务——但真实的软件开发远不止生成下一个 Token:仓库导航、搜索、函数查找、应用 diff、执行测试、排查错误、维持全局上下文……一个优秀的编程框架,正是在这些地方大幅拉开差距。
Coding Harness 包含三个层次——模型家族、智能体循环和运行时支持。循环内部,"观察"从环境收集信息,"检查"分析信息,"选择"确定下一步,"执行"计划。
什么是Coding Harness?
Harness通常指的是围绕模型的软件层,它负责:
- 组装提示词
- 暴露工具接口
- 跟踪文件状态
- 应用代码编辑
- 执行命令
- 管理权限
- 缓存稳定前缀
- 存储记忆
如今使用 LLM,这一层直接决定了绝大部分用户体验,远胜于直接 prompt 或使用网页聊天界面。
当前主流 LLM 的基础能力已经相当接近(GPT-5.4、Opus 4.6、GLM-5 等),Harness 往往才是区分产品体验的真正影响因素。
如果把当前最强开源 LLM(如 GLM-5)放进同等水平的框架,其表现可能接近 Codex 中的 GPT-5.4 或 Claude Code 中的 Claude Opus 4.6。
Coding harness 的主要框架功能
从零开始的 Mini Coding Agent
Mini Coding Agent 六大核心组件
coding agent的6个核心组件
1. 实时仓库上下文
用户下达"修复测试"或"实现 xyz"这类指令时,智能体首先得搞清楚几件事:当前是否在 Git 仓库里?在哪个分支?项目文档里有没有关键信息?目录结构长什么样?
这些信息直接决定接下来的每一步是否正确。
"修复测试"本身不是自包含的指令。智能体得先通过AGENTS.md 或 README 搞清楚测试命令,通过目录结构定位相关文件,再结合 git 分支、状态和提交记录判断当前修改范围。
agent harness 首先构建工作区摘要,与用户请求结合,提供额外的项目上下文
Coding agent 在执行任务之前,会先把这些工作区信息收集好,形成稳定事实层,避免每次提示都从零开始重建上下文。
2. prompt上下文组装与 Cache 复用
怎么高效地把这些信息喂给模型?
一个 coding session 里有大量内容是高度重复的:agent 规则基本不变、工具描述基本不变、工作区摘要大部分稳定——真正每轮变化的,只有最新请求、对话历史和短期记忆。
如果每次对话都把所有内容重新拼成一个巨型 prompt,那是相当浪费的。聪明的做法是把不变的部分构建成稳定 prompt prefix,缓存复用,只在动态部分追加变化内容。
agent harness 构建稳定的 prompt prefix,添加变化的会话状态,然后将组合后的提示输入模型
这种结构在大规模应用中能显著降低重复计算,提升效率、压低成本。
3. 工具访问与使用
工具能力是区分普通聊天和智能体的核心差异。
- chat模式:模型只能用自然语言"建议你运行 xxx 命令",但到底运行不运行、结果是什么,模型一无所知
- coding harness:LLM 可以直接执行命令并拿到结果,形成完整的反馈闭环。
Harness 通常不会让模型随意生成任意指令,而是预定义一套结构化、带权限的工具集,比如:
- 列出文件
- 读取文件内容
- 搜索代码
- 执行 shell 命令
- 写入文件
模型生成结构化操作,harness 验证操作,可选地请求批准,执行操作,并将受限结果反馈回循环
下面是用 Mini Coding Agent 时常见的工具审批交互,不如 Claude Code 或 Codex 精美——因为它极简,纯 Python,无任何外部依赖:
Mini Coding Agent 中工具调用审批请求示意
沙箱与权限控制虽然限制了自由度,但它换来的是安全性和可靠性——这个取舍在真实工程场景里往往是值得的。
4. 最小化上下文,防止爆炸
上下文爆炸是所有 LLM 系统的共同挑战。Coding agent 因为多轮交互、大量文件读取、冗长工具输出,这个问题尤为突出。
即便现代 LLM 支持了很长的上下文窗口,长上下文依然意味着高成本和更多噪声。真正的解法不是暴力塞满,而是主动管理。
大输出被截断,旧读取被去重,转录文本在返回提示词前被压缩
常用的三种压缩策略:
- 裁剪(clip):限制过长的文本片段和工具输出,避免单个内容吃掉整个 token 预算
- 历史压缩(summarize):将对话历史压缩成精简版——越近的内容保留越多细节,越早的内容越激进地压缩
- 去重(dedup):对重复读取的文件内容去重,别让同一个文件出现三遍
有句话说得很到位:很多看似"模型能力强"的表现,本质上是上下文质量高。
5. 结构化会话记忆
上一节关注的是"提示时如何使用历史"(压缩、截断、时效性),这一节关注"历史本身如何存储"。
Coding agent 通常把状态分为两层:
- 工作记忆(Working Memory):轻量、精炼、可更新——记当前目标、关键文件、重要笔记
- 完整记录(Full Transcript):永久性转录——包含所有用户请求、工具输出、模型响应
新事件追加到完整记录,并在工作记忆中进行摘要。磁盘上的会话文件通常以 JSON 格式存储。
新事件(用户请求 / 工具输出 / 模型响应) ↓ ┌────────┴────────┐ ↓ ↓Full Transcript Working Memory(完整记录, (精简摘要, 可复盘/恢复) 维持任务连续性) ↓ ↓ JSONL 短期上下文注入两层设计各有侧重:完整记录保证会话可恢复、可复盘;工作记忆则维持任务的连续性和当前焦点。每个新事件都会同时追加到完整记录,并更新工作记忆。
6. 定义执行边界,利用 Subagent 执行任务
有了工具和状态管理之后,下一个关键进阶是任务分配能力。
核心思路是:把复杂任务拆解成并行子任务,让 main agent 专注主线开发,同时派出 subagent 去做符号查找、配置检查、测试失败排查等支线工作。
但 subagent需要设置边界控制。它必须继承足够的上下文才能工作,同时必须加以约束,否则就会出现无限递归、重复操作、互相干扰等问题。
subagent 继承足够的上下文以发挥作用,但其运行边界比 main agent 更严格
常见的约束方式:
- 只读权限:subagent 只能读,不能写
- 递归深度限制:防止 subagent 再派 subagent 无限嵌套
- 任务范围限定:只允许操作特定文件或目录
- 沙箱隔离:限制 subagent 能访问的工具集
Claude Code 很早就支持 subagent,Codex 近期也加入了这个能力。两者的主要差异体现在任务范围、上下文限制与深度控制的具体策略上。
总结
六个组件相互协作,通过coding harness 能让 LLM 的表现远超普通多轮对话。
coding harness 六大主要特性
与 OpenClaw 的对比
不同点
- OpenClaw:本地化通用智能体平台,具备编程能力,但并非专用终端编程助手
- Coding Agent:专注于代码仓库内的开发工作,面向程序员,核心能力是文件检查、编辑、工具执行
相同点
- 都支持 AGENTS.md、SOUL.md、TOOLS.md 等指令文件
- 都保留 JSONL 会话记录
- 都具备上下文压缩与会话管理
- 都支持 subagent
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包:
- ✅ 从零到一的 AI 学习路径图
- ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
- ✅ 百度/阿里专家闭门录播课
- ✅ 大模型当下最新行业报告
- ✅ 真实大厂面试真题
- ✅ 2026 最新岗位需求图谱
所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》,下方扫码获取~
① 全套AI大模型应用开发视频教程
(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
② 大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
③ 大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
④ AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
⑤ 大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
⑥ 大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
以上资料如何领取?
为什么大家都在学大模型?
最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!
不出1年,“有AI项目经验”将成为投递简历的门槛。
风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。