Files
edict/examples/competitive-analysis.md
cft0808 a4417abb56 feat: killer README hooks, Demo GIF, ROADMAP.md, examples/ with 3 use cases
- Rewrite README/README_EN opening with cognitive conflict hook
- Add 门下省 review mechanism callout (collapsible)
- Record 30s Demo GIF (800px, 4.6MB) via Playwright
- Create standalone ROADMAP.md with Phase 1/2/3 structure
- Add examples/: competitive analysis, code review, weekly report
- Add Star History chart
- Restructure inline Roadmap into phases
- Add examples reference section in both READMEs
2026-02-25 00:29:39 +08:00

4.6 KiB
Raw Permalink Blame History

案例 1竞品分析

旨意:分析 CrewAI、AutoGen、LangGraph 三个多 Agent 框架,输出对比报告


📜 圣旨(原始指令)

分析 CrewAI、AutoGen 和 LangGraph 这三个多 Agent 框架。
重点关注架构设计、Agent 通信方式、任务编排能力、可观测性、学习曲线。
输出一份结构化的对比报告,包含推荐场景。

旨意 IDJJC-20260220-003 下旨时间2026-02-20 09:15:00


📋 中书省规划

接旨后 45 秒内完成规划

规划方案:

# 子任务 派发部门 说明
1 架构与通信机制调研 ⚔️ 兵部 分析三个框架的核心架构、Agent 通信模式、代码组织
2 数据采集与量化对比 💰 户部 GitHub Stars、Contributors、Issue 响应时间、版本频率
3 开发者体验深度评测 ⚔️ 兵部 实际 Hello World 搭建、文档质量、学习曲线打分
4 对比报告撰写 📝 礼部 整合数据,输出结构化 Markdown 报告

预计耗时25 分钟 预计 Token~18,000


🔍 门下省审议

⏱️ 审议耗时 32 秒

第一轮:封驳 🚫

封驳理由:

  1. 缺少"可观测性"专项评测——旨意明确要求了这一维度,但规划中没有对应子任务
  2. 子任务 3 和子任务 1 有重叠(兵部两次调研),建议合并
  3. 建议增加"推荐场景"子任务,不能只有对比没有结论

批注: "分析没有结论等于没分析。补上推荐场景再报。"

第二轮:准奏

中书省修改后的方案:

# 子任务 派发部门 变更
1 架构 + 通信 + 可观测性全维度技术调研 ⚔️ 兵部 合并原 1+3增加可观测性
2 量化数据采集 💰 户部 不变
3 对比报告 + 推荐场景 📝 礼部 增加推荐场景段落

门下省批语: "方案可行。注意兵部评测需覆盖可观测性维度,礼部结论需给出明确推荐。准奏。"


⚔️ 各部执行结果

兵部 · 技术调研(耗时 8 分钟)

## 架构对比

### CrewAI
- 架构Role-based Agent + Sequential/Hierarchical Process
- 通信:共享 Memory + Task 回调
- 可观测性:基本日志,无内置看板
- 优点API 简洁上手最快5 分钟 Hello World
- 缺点:调试困难,复杂流程编排受限

### AutoGen
- 架构Conversational Agent + Group Chat
- 通信消息传递Message-based
- 可观测性AgentOps 集成可选,无内置看板
- 优点:对话式交互自然,适合 brainstorm 场景
- 缺点:群聊模式在任务型场景效率低

### LangGraph
- 架构State Machine + Graph-based Flow
- 通信State 传递Graph edges
- 可观测性LangSmith 集成,有 trace 功能
- 优点:流程编排最灵活,支持循环和条件分支
- 缺点:学习曲线陡峭,概念抽象

户部 · 量化数据(耗时 3 分钟)

指标 CrewAI AutoGen LangGraph
GitHub Stars 24.3k 38.5k 12.1k
Contributors 180+ 350+ 90+
最新版本 v0.8.2 v0.4.1 v0.2.8
Issue 中位响应 2 天 3 天 1 天
文档评分
Hello World 时间 ~5 min ~15 min ~25 min

礼部 · 对比报告撰写(耗时 6 分钟)

礼部整合兵部 + 户部数据,产出最终报告格式。


📮 最终奏折(尚书省汇总)

奏折 IDJJC-20260220-003 总耗时22 分钟(规划 2 + 审议 3 + 执行 17 总 Token15,800

执行摘要

对 CrewAI、AutoGen、LangGraph 完成了架构、量化、体验三维度对比分析。门下省一次封驳(要求补充可观测性和推荐场景),修正后执行。

推荐场景

场景 推荐框架 理由
快速原型 CrewAI 上手最快API 简洁
对话式协作 AutoGen 天然适合多轮讨论
复杂工作流 LangGraph 状态机 + 条件分支最灵活
可靠性要求高 三省六部 唯一内置强制审核 + 实时看板

关键发现

  1. 没有内置审核机制是行业通病 —— 三个框架都依赖开发者自行添加 validation
  2. 可观测性普遍不足 —— 只有 LangGraph 通过 LangSmith 提供了较好的 trace
  3. CrewAI 社区增长最快,但文档深度不够
  4. LangGraph 技术上最强,但入门门槛高

本案例基于真实运行记录整理,数据截至 2026 年 2 月。