OpenCLI 学习 07:我的工作方向与方法抽象

1. 我目前开始形成的一个工作判断

我觉得之后我的工作可以分成两个主要方向。

方向一:构建一个聪明且通用的 Agent

这个 Agent 的重点,不是把所有具体业务逻辑都写死在内部,而是让它擅长:

  • 理解任务
  • 选择工具
  • 读取状态
  • 逐步决策
  • 失败后调整
  • 结合 Skill 和结构化输出来完成多步编排

也就是说,它更像是一个通用的编排和判断层。

方向二:把具体业务需求落成 Agent-Friendly Harness

当一个具体业务需求到来时,我不再优先想着:

  • 直接暴露零散 API
  • 直接写一个固定 workflow

而是优先考虑:

  • 能不能把这类业务能力整理成命令树
  • 能不能有清晰的状态模型
  • 能不能有结构化输出
  • 能不能让 Agent 更容易识别这些能力并自主组合

也就是说,重点从“写固定流程”转向“设计能力接口”。

2. 一个重要修正:不是不要 API,而是不要把 API 直接等同于 Agent 接口

我当前逐渐意识到:

  • 底层仍然可以有 API、SDK、数据库、第三方服务
  • 但 Agent 不一定应该直接面对这些底层接口

更合理的分层可能是:

  • 底层:API / SDK / service
  • 中层:CLI-harness / 命令树 / 状态模型
  • 上层:Agent 编排

所以不是否定 API,而是提升一层抽象后再给 Agent 使用。

3. 为什么这种分层有价值

我现在觉得,这种方式的一个很大好处是:

  • 把 Agent 设计和具体业务能力落地相对解耦

这样就可以:

  • 先做一个通用 Agent
  • 再把具体业务逐步落成不同 harness
  • 最后形成“通用 Agent + 领域 harness”的组合

它不一定天然完美,但会比把所有逻辑都揉在一起更清晰、更可替换、更容易演进。

4. 这里最难的地方不在于“写几个命令”

我目前觉得真正难的点在于:

  • 哪些能力应该暴露
  • 命令如何分组
  • 命令粒度多大最合适
  • 哪些状态必须显式暴露
  • 如何降低 Agent 的理解成本
  • 如何让 Agent 既有自由度又不至于乱用能力

所以真正的难点是 Agent 和 harness 之间的接口设计,而不是单纯的代码实现。

5. 我当前最认可的一句话

我的工作将分成两层:

  • 上层做通用 Agent
  • 下层做面向具体业务的 harness

前者负责思考和编排,后者负责把业务能力整理成 Agent 可理解、可调用的结构化接口。

Read more

MCP 服务端的隐藏设计:结论性数据如何改变

Agent 的工作方式 我们以为 MCP 服务只是查数据的管道,拆开一看,发现服务端已经把分析结论都算好了。这个发现改变了我对 Agent 架构的理解。 起因:一次对 MCP 服务的逆向探索 最近在研究 MCP(Model Context Protocol)的实际应用,我选了一个真实的商业 MCP 服务 —— 某电商卖家流量分析平台作为研究对象。该服务提供了 27 个工具,覆盖关键词分析、流量运营、广告洞察等领域。 最初的预期很简单:MCP 服务就是一个数据接口,Agent(LLM)调用它拿到原始数据,然后自己分析、得出结论、给用户建议。 实际拆开一看,完全不是这么回事。 第一个发现:返回数据里藏着完整的分析结论 我写了一个 Python 脚本,绕过所有 AI 客户端,直接用

By ladydd

FastAPI 异步任务服务的并发设计演进:从单进程轮询到多 Worker 协程直处理

本文记录了一个 FastAPI 异步任务服务在并发架构上的思考和演进过程。这个服务的本质很简单:接收客户端请求,转发给下游 AI API,把结果存起来供客户端轮询。它不做复杂的业务计算,不做数据聚合,就是一个纯转发层——接活、派活、存结果。正因为场景足够简单,我们才有机会做一次化繁为简的架构妥协,把原本"看起来该用任务队列"的设计砍到只剩三行核心配置。 一、先说清楚场景:我们到底在干什么 这个服务做的事情可以用一句话概括: 客户端提交参数 → 服务转发给下游 AI API → 等结果 → 存 Redis → 客户端来取。 关键特征: * 纯 IO 转发:服务本身不做任何 CPU 密集计算,所有耗时都花在等下游 API 返回。一次调用几秒到几十秒不等,全是网络等待。 * 异步模式:客户端提交任务后立即拿到 task_id,

By ladydd

从连上一个 MCP 服务到理解 AI 系统的工程本质

一次从"会用"到"理解原理"再到"能优化"的完整探索记录。 本文记录了我通过实际动手连接一个远程 MCP 服务(SIF —— 亚马逊卖家流量分析平台),一步步深入理解 MCP 协议机制、LLM 上下文管理、注意力资源分配、以及工具编排优化方案的全过程。 一、起点:连上一个真实的 MCP 服务 什么是 MCP? MCP(Model Context Protocol)是 Anthropic 主导设计的一个开放协议,目的是标准化 AI 应用与外部工具/数据源之间的通信方式。你可以把它理解为"AI 世界的 USB 接口"

By ladydd
陕公网安备61011302002223号 | 陕ICP备2025083092号