收藏!小白/程序员必看:一文彻底搞懂智能体框架(Harness)的奥秘
2026/4/25 14:44:37 网站建设 项目流程

智能体=模型+框架。框架(Harness)是除模型外所有支持要素,包括状态管理、工具执行、反馈循环等。文章阐述了框架如何弥补模型局限,如文件系统支持持久存储与跨会话工作,Bash+代码执行赋予自主解决问题的能力,沙箱提供安全执行环境,记忆与搜索助力持续学习,并对抗上下文衰减。框架与模型协同演化,但需注意泛化能力问题。未来框架工程将聚焦智能体协作、自我优化及动态任务适配,持续放大模型智能价值。

先把结论摆出来

智能体 = 模型 + 框架

如果你不是模型,你就是框架。这个公式听起来简单,但真正理解它需要费点功夫。

所谓框架(Harness),就是除了模型本身之外的所有东西——代码、配置、执行逻辑。一个裸模型不是智能体,它只是个能输出文字的"大脑"。但当框架给它装上状态管理、工具执行、反馈循环和各种约束之后,它才真正变成一个能干活的智能体。

具体来说,框架里包含这些东西:系统提示、工具和技能(包括 MCP 及其描述)、捆绑的基础设施(文件系统、沙箱、浏览器)、编排逻辑(子代理生成、任务交接、模型路由),以及用于确定性执行的钩子和中间件(压缩、延续、代码检查)。

这样划分模型和框架的边界,最大的好处就是——它强迫你围绕模型智能本身来思考系统设计,而不是把两者混为一谈。

为什么需要框架?从模型的局限说起

模型本身其实很简单:输入文本、图像、音频、视频,输出文本。就这样。

开箱即用的模型做不到这些事:跨交互保持持久状态、执行代码、访问实时信息、自己配置环境装依赖包。这些全都是框架层面的能力。

举个最朴素的例子——大家天天用的"聊天"产品,本质上就是把模型包在一个 while 循环里,记录历史消息、追加新消息。这就是最基础的框架。核心思路就一条:把期望的智能体行为,翻译成框架里的实际功能。

文件系统:框架最底层的基石

想要什么:让智能体有持久存储,能跟真实数据打交道,能把放不进上下文的信息卸载出去,还能跨会话保存工作成果。

模型的知识边界就是它的上下文窗口,别的什么都没有。没有文件系统之前,用户得把内容手动复制粘贴进去,这对自主智能体来说根本行不通。

解法很自然:框架附带文件系统抽象和文件操作工具。

文件系统可以说是最基础的框架原语,它解锁了几件关键的事:智能体有了工作区,能读数据、读代码、读文档;工作可以增量写入和卸载,不用把所有东西都塞进上下文;状态可以跨会话持久化;多个智能体和用户还能通过共享文件来协作——那些"智能体团队"架构就是靠这个跑起来的。

在文件系统上再叠一层 Git,就有了版本控制,智能体可以追踪工作进度、回滚错误、开分支做实验。文件系统不只是存储,它实际上是后面所有能力的地基。


Bash + 代码执行:通用工具的正确打开方式

想要什么:让智能体能自主解决问题,而不是每次都要用户预先设计好每一个工具。

当前智能体的主流执行模式是 ReAct 循环——推理、用工具执行、观察结果、循环往复。问题是,如果只给固定的工具集,智能体的能力上限就被死死卡住了。

与其让用户为每一个可能的操作都写工具,不如直接给智能体一个 Bash 工具,让它自己写代码解决问题。框架附带 Bash 工具,模型通过编写和执行代码来自主应对各种情况。

这是让模型"拥有一台电脑"的关键一步。它不再被限制在预配置的工具集里,而是可以通过代码动态设计自己需要的工具。当然框架里还是会有其他工具,但代码执行已经成为自主解决问题的默认通用策略。


沙箱:给执行装上安全网

想要什么:智能体需要一个有正确默认配置的环境,能安全执行操作、观察结果、推进任务。

已经有了存储和代码执行能力,但这一切得有个地方跑。在本地直接跑智能体生成的代码风险很大,而且单台本地机器根本撑不住大规模的智能体工作负载。

沙箱解决了这个问题——它为智能体提供了隔离的安全执行环境。框架连接到沙箱来运行代码、检查文件、安装依赖、完成任务,而不是在本地执行。沙箱还能按需创建、分发到多个任务、任务完成后销毁,天然支持横向扩展。

好的执行环境还需要好的默认工具:预装的语言运行时和常用包、Git 和测试用的 CLI、用于 Web 交互和验证的浏览器。有了浏览器、日志、截图、测试运行器这些工具,智能体就能形成自我验证的闭环——写代码、跑测试、看日志、修 bug,一条龙搞定。

智能体在哪里跑、有哪些工具、能访问哪些资源、怎么验证自己的工作——这些都是框架层面的设计决策,模型本身管不了这些。


记忆与搜索:让智能体不断"长知识"

想要什么:智能体应该记得已经见过的东西,还能访问训练截止日之后出现的新信息。

模型除了权重和当前上下文,什么知识都没有。既然不能直接改模型权重,"加知识"的唯一方式就是往上下文里注入。

文件系统在这里依然是核心。框架支持类似 AGENTS.md 这样的记忆文件,在智能体启动时注入到上下文里。智能体更新这个文件,框架下次启动时就把最新版加载进来——这就是一种持续学习:把某个会话里学到的东西持久化,带进未来的会话。

至于知识截止的问题,网络搜索工具和 MCP 工具(比如 Context7)可以帮助智能体访问训练截止日之后的信息,比如新版本的库文档、最新的实时数据。Web 搜索和查询最新上下文的工具,是值得直接集成进框架的基础能力。


对抗上下文衰减

想要什么:智能体的表现不应该随着工作推进越来越差。

上下文衰减描述了一个真实存在的现象:随着上下文窗口被填满,模型的推理和任务完成能力会明显下滑。上下文是稀缺资源,框架必须有策略来管理它。

压缩机制处理上下文窗口快满的情况。没有压缩,对话一旦超出上下文窗口,轻则 API 报错,重则任务直接崩掉。压缩机制会智能地卸载并汇总已有上下文,让智能体能继续工作。

工具调用卸载解决大型工具输出污染上下文的问题。对于超过一定长度的工具输出,框架只在上下文里保留头尾部分,完整内容卸载到文件系统,需要时再取。

**技能(Skills)**解决工具过载的问题。如果启动时把所有工具和 MCP 服务器都加载进来,上下文还没开始工作就已经被占满了。技能通过渐进式披露来解决这个问题——启动时只加载前端元数据,用到什么再展开什么。


长期自主执行:真正难啃的骨头

想要什么:智能体能在较长的时间跨度内,自主、正确地完成复杂任务。

自主软件开发是智能体编程的终极目标,但现有模型有几个老毛病:过早停止、复杂问题分解困难、跨多个上下文窗口时表现不一致。一个好的框架必须正面应对这些挑战。

在长期任务里,前面提到的那些原语开始变得不够用。需要持久状态、规划、观察和验证机制,才能在多个上下文窗口里持续推进。

文件系统 + Git用来跨会话追踪任务进度。长时间任务会消耗大量 token,文件系统把工作状态持久化下来,让新加入的智能体或者下一个上下文窗口能快速接手。对多个并行工作的智能体来说,文件系统还是共享账本。

Ralph 循环用来保持持续工作。这是一种工具模式:通过钩子拦截模型的"退出"企图,在干净的新上下文窗口里重新注入原始目标,强迫智能体继续完成任务。每次迭代从新的上下文开始,但会读取前一次的状态——文件系统让这一切成为可能。

规划和自我验证保证任务真正推进而不是在原地打转。框架通过提示和计划文件来支持规划,智能体把目标拆成步骤逐一推进。完成每个步骤后,框架里的钩子可以运行预定义的测试套件,失败时把错误信息反馈给模型;或者让模型自己做代码评估。验证把解决方案建立在测试基础上,同时提供自我改进的反馈信号。


模型训练和框架设计已经深度耦合

像 Claude Code 和 Codex 这样的智能体产品,模型和框架在训练后期就已经深度绑定在一起。这让模型在框架设计者认为关键的操作上持续提升——文件系统操作、bash 执行、任务规划、用子智能体并行化工作。

这形成了一个反馈循环:有用的框架原语被发现,加进框架,用来训练下一代模型,模型在这些框架里越来越强,然后继续发现新原语。

但这种协同演化有个副作用——泛化能力会变差。改变工具逻辑可能直接导致模型性能下滑。Codex-5.3 的提示指南里就有个典型案例:换一种补丁应用方式,模型就跟不上了。一个真正通用的智能模型应该能轻松切换不同的补丁策略,但过度拟合训练时用的框架让它做不到。

更重要的是:最适合你任务的框架,不一定是模型后训练时用的那个框架。Terminal Bench 2.0 排行榜是个很好的例证——同样是 Opus 4.6,在 Claude Code 里的得分远低于其他框架里的表现。仅仅通过换框架,就能把编码智能体的排名从前 30 提到前 5。针对具体任务优化框架,潜力是真实存在的。

框架工程的未来走向

随着模型能力的提升,现在框架里做的一些事情会逐渐被模型自身吸收。规划、自我验证、长期一致性——这些都会变得越来越不依赖上下文注入。

这是否意味着框架会越来越不重要?不太可能。就像提示词工程在今天依然至关重要一样,框架工程大概率也会长期发挥作用。框架的价值不只是弥补模型的短板,它是围绕模型智能构建系统、让模型更高效发挥的那层"放大器"。一个配置良好的环境、合适的工具、持久状态和验证循环,无论底层模型有多强,都能让它跑得更稳、更快。

目前还有几个方向值得持续关注:如何协调数百个智能体在同一个代码库上并行工作;让智能体能够分析自身的运行轨迹,识别并修复框架层面的故障模式;以及框架能否根据具体任务动态组装合适的工具和上下文,而不是在启动时全部预配置好。

模型负责提供智能,框架负责把这种智能变成真正有用的东西。

那么如何学习大模型 AI ?

对于刚入门大模型的小白,或是想转型/进阶的程序员来说,最头疼的就是找不到系统、全面的学习资源,要么零散不成体系,要么收费高昂,白白浪费时间走弯路。今天就给大家精心整理了一份全面且免费的AI大模型学习资源包,覆盖从入门到实战、从理论到面试的全流程,所有资料均已整理完毕,免费分享给各位!

核心包含:AI大模型全套系统化学习路线图(小白可直接照做)、精品学习书籍+电子文档、干货视频教程、可直接上手的实战项目+源码、2026大厂面试真题题库,一站式解决你的学习痛点,不用再到处搜集拼凑!

👇👇扫码免费领取全部内容👇👇

1、大模型系统化学习路线

学习大模型,方向比努力更重要!很多小白入门就陷入“盲目看视频、乱刷资料”的误区,最后越学越懵。这里给大家整理的这份学习路线,是结合2026年大模型行业趋势和新手学习规律设计的,最科学、最系统,从零基础到精通,每一步都有明确指引,帮你节省80%的无效学习时间,少走弯路、高效进阶。

2、大模型学习书籍&文档

理论是实战的根基,尤其是对于程序员来说,想要真正吃透大模型原理,离不开优质的书籍和文档支撑。本次整理的书籍和电子文档,均由大模型领域顶尖专家、大厂技术大咖撰写,涵盖基础入门、核心原理、进阶技巧等内容,语言通俗易懂,既有理论深度,又贴合实战场景,小白能看懂,程序员能进阶,为后续实战和面试打下坚实基础。

3、AI大模型最新行业报告

无论是小白了解行业、规划学习方向,还是程序员转型、拓展业务边界,都需要紧跟行业趋势。本次整理的2026最新大模型行业报告,针对互联网、金融、医疗、工业等多个主流行业,系统调研了大模型的应用现状、发展趋势、现存问题及潜在机会,帮你清晰了解哪些行业更适合大模型落地,哪些技术方向值得重点深耕,避免盲目学习,精准对接行业需求。值得一提的是,报告还包含了多模态、AI Agent等前沿方向的发展分析,助力大家把握技术风口。

4、大模型项目实战&配套源码

对于程序员和想落地能力的小白来说,“光说不练假把式”,只有动手实战,才能真正巩固所学知识,将理论转化为实际能力。本次整理的实战项目,涵盖基础应用、进阶开发、多场景落地等类型,每个项目都附带完整源码和详细教程,从简单的ChatPDF搭建,到复杂的RAG系统开发、大模型部署,难度由浅入深,小白可逐步上手,程序员可直接参考优化,既能练手提升技术,又能丰富简历,为求职和职业发展加分。

5、大模型大厂面试真题

2026年大模型面试已从单纯考察原理,转向侧重技术落地和业务结合的综合考察,很多程序员和新手因为缺乏针对性准备,明明技术不错,却在面试中失利。为此,我精心整理了各大厂最新大模型面试真题题库,涵盖基础原理、Prompt工程、RAG系统、模型微调、部署优化等核心考点,不仅有真题,还附带详细解题思路和行业踩坑经验,帮你精准把握面试重点,提前做好准备,面试时从容应对、游刃有余。

6、四阶段精细化学习规划(附时间节点,可直接照做)

结合上述资源,给大家整理了一份可直接落地的四阶段学习规划,总时长约2个月,小白可循序渐进,程序员可根据自身基础调整节奏,高效掌握大模型核心能力,快速实现从“入门”到“能落地、能面试”的跨越。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

👇👇扫码免费领取全部内容👇👇

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询