添加快捷方式
分享
🔬 Agent 圈深度研究报告:五大方向 + Agentic AI 全景
输入“/”快速插入内容
🔬 Agent 圈深度研究报告:五大方向 + Agentic AI 全景
用户8501
用户8501
3月21日修改
研究日期:
2026年3月21日
研究方法:
苏格拉底式追问 × 多源信息交叉验证 × 第一性原理推导
核心信息源:
Anthropic 工程博客 · LangChain/LangSmith 博客 · Chroma Research · A2A 协议文档 · Latent Space Podcast · Simon Willison 博客 · Geoffrey Huntley 文章
📌 前言:大家说的"Agent"不是同一个东西
当下最大的认知混乱:至少有三种完全不同的东西都叫"Agent"。
•
Anthropic 视角:
LLM + 工具循环,强调简单可组合,面向开发者
•
LangChain 视角:
Model + Harness(模型 + 包裹系统),平台化 + 可观测性,面向企业
•
Dreamer/消费端视角:
给普通人用的智能 App,App Store for AI
"Agent"这个词正在经历和"Cloud"一样的命运——从技术概念变成营销词。每家公司都在往自己的产品上贴这个标签。
本报告的出发点:
穿透术语迷雾,从第一性原理出发,拆解 Agent 领域真正在发生的结构性变化。
第一章 ⚙️ Agent Harness — 模型之外的真正战场
1.1 核心命题:Harness 才是护城河
LangChain 提出了一个精确的公式:
Agent = Model + Harness
。
"如果你不是模型,你就是 Harness。"
反直觉的洞察:模型越强,Harness 越重要。
Harness 不是框架,不是 SDK。Harness 是一组
认知假肢(cognitive prosthetics)
——弥补模型天生不具备的能力:
•
模型不能跨 session 记住东西 → Harness 提供
文件系统 + 记忆文件
(AGENTS.md)
•
模型不能执行代码 → Harness 提供
Bash 工具 + 沙箱
•
模型不能获取实时信息 → Harness 提供
搜索 + MCP
•
模型不能管理注意力资源 → Harness 提供
上下文压缩 + 卸载
•
模型不能从错误中恢复 → Harness 提供
Ralph Loop
(循环重启)
实证:
Cursor 用月之暗面的 Kimi K2.5 模型加上自己的 continued pretraining + RL 做出了 Composer 2。模型是公共设施,Harness 是差异化。
1.2 前沿趋势一:自主上下文压缩
LangChain 的 Deep Agents SDK(2026年3月)上线了让模型
自己决定何时压缩上下文
的功能。不再是到 85% 上限才触发——模型自己判断"我要开始新任务了,先把之前的压缩掉"。
适合压缩的时机包括:
•
任务边界(用户转移到新任务)
•
从大量上下文中提取结论后(研究任务)
•
即将消费大量新上下文之前
•
进入复杂多步骤流程之前(重构、迁移)
•
新需求使旧上下文失效时
深层哲学:
Harness 应该尽可能"让路",让模型自己做决策。这呼应了 Rich Sutton 的 "The Bitter Lesson"——手工设计的规则终将被通用学习能力取代。
1.3 前沿趋势二:Ralph Loop(循环模式)
Geoffrey Huntley 提出的 Ralph Loop 是一个极端但有力的范式:
•
不要构建 Jenga 式的垂直堆叠,把一切变成
循环
•
给定目标 → 执行 → 检查 → 重来
•
Agent 退出时,Harness 拦截退出,重新注入原始目标到新的上下文窗口
•
文件系统成为跨循环的"共享记忆"
Huntley 的激进观点:
"软件开发已死。软件现在可以以低于麦当劳员工时薪的成本自主开发。" 他声称已实现"进化式软件"——Agent 在 loop 中自动发现 bug、修复、部署、验证。
1.4 前沿趋势三:Skills 渐进式披露
LangChain 的技能评估实验揭示了实际问题:
•
给 Agent 加载太多工具/MCP → 性能下降(context rot)
•
解法:Skills 只在相关时才加载
•
但技能调用不可靠——即便有专门技能,Claude Code 有时就是不调用它。加了提示也只有
70% 调用率
•
最可靠的做法:把关键指令放在 AGENTS.md / CLAUDE.md(始终加载的位置)
🔑 第一性原理总结
Harness 的终极使命不是"控制模型",而是
放大模型的认知带宽
。最好的 Harness 设计是:尽量少的手工规则,尽量多地让模型自己管理自己。
第二章 🧠 记忆系统 — 远未到甜蜜点,但正在逼近
2.1 核心追问:如果上下文窗口无限大,还需要记忆吗?
需要。因为 Context Rot(上下文腐烂)是一个已被实证的现象。