NEW v5.0

让 Agent 长时间自动化开发
不再崩溃

解决 Agent 上下文丢失、过度设计、过早完成等核心痛点

基于 Anthropic 论文 "Effective Harnesses for Long-Running Agents"

$ pip install long-run-agent
✅ Successfully installed long-run-agent-5.0.0
$ cd /your/project && lra init --name "My Project"
✅ 项目已初始化:My Project
$ lra create "用户登录功能" --priority P0
✅ 任务已创建: task_001
$ lra context --output-limit 8k
📊 项目状态: 待执行 1 | 推荐: task_001 (P0)

💡 提示:如果你想用可视化界面来管理 Agent 军团,可以查看

Stratix 项目 - LRA 的可视化界面

你的 Agent 正在面临这些问题吗?

LRA 解决了 Agent 长时间自动化开发中的 6 个核心痛点

1

上下文丢失

每次新会话开始,Agent 完全不记得之前做了什么,需要花费大量时间重新理解项目状态
lra orientation # 3秒重建完整上下文
→ 自动恢复工作目录、项目结构、任务进度、代码索引
2

过度设计

Agent 倾向于一次性完成整个项目,结果中途耗尽上下文,留下半成品代码
智能拆分:根据输出限制自动推荐任务拆分
增量开发:一次只做一个任务,确保质量
3

过早宣布完成

Agent 在项目后期容易误认为"差不多了",实际上还有大量功能未完成
特性清单:200+ 验证点,清晰定义"完成"
进度可视化:实时查看完成度
4

质量保障缺失

Agent 标记功能完成但没有充分测试,留下隐藏 bug 和技术债务
验证机制:完成前必须提供测试证据
回归测试:自动运行测试套件
浏览器测试:端到端验证
5

多 Agent 协作困难

多个 Agent 同时工作,资源冲突,任务状态混乱,重复工作
层级锁机制:支持大模型拆分、小模型并行
心跳保活:自动检测和恢复
协作流程:清晰的分工和验收机制
6

输出限制瓶颈

大型任务受限于模型的 4K/8K/16K token 限制,无法一次性输出完整代码
输出限制感知:根据模型能力推荐任务粒度
自动拆分:将大任务拆分为适合的小任务

基于 Anthropic 的前沿研究

站在巨人的肩膀上,解决 Agent 长时间运行的核心难题

📄

核心论文

Anthropic: "Effective Harnesses for Long-Running Agents"

"The core challenge of long-running agents is that they must work in discrete sessions, and each new session begins with no memory of what came before."
🧠

论文解决方案

  • Initializer Agent + Coding Agent
  • 增量开发(Incremental Progress)
  • 环境管理(Feature List)
  • 质量保障(Testing & Verification)

LRA 实现

  • v3.3: 上下文重建协议(orientation)
  • v3.4: 系统预检 + 项目分析
  • v4.0: 完整质量保障系统
  • v5.0: Constitution机制(规范驱动开发)
  • 超越: 多 Agent 协作 + 模板系统

一个完整的 Agent 开发工具链

7 大核心模块,覆盖 Agent 开发的所有场景

📋

任务管理

  • 多状态流转(pending → completed)
  • DAG 依赖关系
  • 优先级调度(P0-P3)
  • 模板系统(通用/代码/小说/数据)
🔐

锁机制

  • 层级锁(claim/publish/heartbeat)
  • 批量锁(batch lock)
  • 心跳保活(自动续期)
  • 过期恢复(orphan cleanup)
🧠

上下文管理

  • 上下文重建(orientation)
  • 项目分析(analyze project)
  • Agent 索引(快速定位代码)
  • 进度可视化(status)

质量保障

  • 验证机制(完成前必填)
  • 回归测试(test regression)
  • 浏览器测试(test browser)
  • 代码质量检查(test quality)
🎯

Ralph 迭代引导 v5.0

  • Ralph Loop:任务级循环优化机制
  • 7阶段渐进优化:理解→实现→完善→优化→重构→测试→交付
  • 智能引导:每阶段有明确重点、优先级检查项、忽略项
  • 自动质量门禁:测试、Lint、验收标准按阶段触发
  • 提前完成:质量达标可提前退出,不必走完7次
  • 强制推进:卡住时可 force_next_stage 跳过
🏛️

Constitution 质量宪法 v5.0

  • 规范驱动开发:定义项目不可协商原则
  • 三层原则体系:NON_NEGOTIABLE、MANDATORY、CONFIGURABLE
  • 自动验证:任务完成时强制检查
  • 质量门禁:命令检查、字段验证、自定义门禁
  • AI无法偷懒:验证失败自动进入优化状态
  • 强制执行:即使force参数也无法绕过NON_NEGOTIABLE
🌍

跨平台支持 v5.0

  • Windows:原生支持,无需额外配置
  • Linux:完整支持所有功能
  • macOS:完美兼容
  • 文件锁:跨平台并发安全
🤖

多 Agent 协作

  • 大模型拆分 + 小模型并行
  • 任务依赖管理
  • 协作流程标准化
  • 验收/集成机制
📊

性能优化

  • 1000 任务实测
  • < 20ms 响应时间
  • 19.5% 内存增长
  • 优秀性能评级

🎯 Ralph Loop 任务级循环优化

v5.0 核心特性:让 Agent 不再"偷懒",每一步都扎实

为什么需要 Ralph Loop?

?

Agent 容易过早宣布完成

"我认为功能已经完成了" —— 但实际上还有很多边界情况没处理、测试没通过
Ralph Loop 强制 Agent 经历7个迭代阶段
每阶段有明确的质量门禁
只有全部通过才能进入下一阶段
?

缺乏明确的优化方向

"现在应该做什么?" —— Agent 在不同迭代阶段做同样的事情
每阶段有明确的重点和优先级
第1轮:理解目标 vs 第5轮:代码重构
不会在错误的方向上浪费时间

7 阶段渐进优化路径

阶段 1

理解与规划

  • 理解任务目标
  • 明确验收标准
  • 制定执行计划
质量门禁:目标理解
阶段 2

基础实现

  • 完成核心功能
  • 确保基本可运行
  • 验证正确性
质量门禁:基本功能
阶段 3

功能完善

  • 处理边界情况
  • 完善错误处理
  • 补充文档注释
质量门禁:功能完整
阶段 4

质量提升

  • 修复 lint 警告
  • 改善代码结构
  • 增加测试覆盖
质量门禁:Lint + 测试
阶段 5

优化改进

  • 性能优化
  • 算法改进
  • 资源利用
质量门禁:性能检查
阶段 6

验证测试

  • 完整测试套件
  • 端到端验证
  • 回归测试
质量门禁:全部测试
阶段 7

交付准备

  • 最终验收检查
  • 文档完整性
  • 部署准备
质量门禁:验收标准

Ralph Loop 工作演示

$ lra set task_001 completed
🔍 自动运行质量检查...
❌ 质量检查未通过
📊 迭代进度: 1/7
━━━━━━━━━━━━━━━━━━━━━━━━━━━━
🎯 当前阶段: 基础实现
📌 本次重点: 完成核心功能,确保可运行
❌ 失败原因: test_login_failed
💡 建议: 检查密码验证逻辑,补充单元测试
$ # 修复后再次提交
$ lra set task_001 completed
✅ 质量检查通过!得分: 85/100
🎉 任务可提前完成(迭代 2/7)

不同模板的迭代路径

模板 7阶段路径
code-module 理解需求 → 基础功能 → 功能完善 → 质量提升 → 优化改进 → 全面测试 → 交付准备
novel-chapter 理解大纲 → 完成初稿 → 情节完善 → 人物塑造 → 语言润色 → 逻辑检查 → 最终定稿
data-pipeline 理解需求 → 数据可用 → 数据质量 → 功能完整 → 性能优化 → 可视化 → 交付验证
doc-update 理解需求 → 内容收集 → 结构设计 → 内容编写 → 格式优化 → 审校修改 → 最终发布
task 理解规划 → 基础实现 → 功能完善 → 质量提升 → 优化改进 → 验证测试 → 交付准备

3 分钟快速开始

简单 5 步,让你的 Agent 开发效率提升 5x

1

安装 LRA

通过 pip 一键安装

pip install long-run-agent
2

初始化项目

在你的项目目录中初始化 LRA

cd /your/project
lra init --name "My Project"
3

创建任务

创建你的第一个任务

lra create "用户登录功能" --priority P0
4

获取上下文

查看项目状态和推荐任务

lra context --output-limit 8k
5

认领任务

开始工作

lra claim task_001

真实项目案例

看看 LRA 在实际项目中的表现

LRA 自身开发

实际案例

LRA v4.0 + v5.0 使用 LRA 自身进行开发管理,实现了完整的自举。v5.0 的Constitution机制更是通过强制验证实现了规范驱动开发,确保AI无法偷懒绕过质量检查。

25+
代码文件
11,500+
代码行数
35+
命令
15+
单元测试
<5%
Bug 率
100%
测试覆盖

全栈 Web 应用

论文案例

参考 Anthropic 论文,使用 LRA 管理 Claude.ai Clone 的开发

200+
功能特性
100%
完整功能
A
代码质量

多 Agent 协作

企业案例

1 个 GPT-4(架构师)+ 5 个 Claude 3.5(开发者)协作开发大型模块化项目

5x
效率提升
0
协作成本
100%
代码一致性

性能基准测试

1000 任务实测,优秀性能评级

19.5%
内存增长
10 → 1000 任务
<10ms
创建延迟
平均响应时间
<2ms
读取延迟
平均响应时间
<20ms
更新延迟
平均响应时间
🟢 优秀
性能评级:适合 1000+ 任务

多 Agent 协作工作流

大模型拆分 + 小模型并行,效率提升 5x

🤖

大模型 - 架构师

负责整体架构设计和任务拆分

lra claim task_001 # 认领整个模块
lra split task_001 --plan '[...]' # 拆分为子任务
lra publish task_001 # 释放子任务锁
👨‍💻

小模型 - 开发者(x5)

并行开发子任务

lra context --output-limit 8k # 获取可领取任务
lra claim task_001_01 # 领取子任务
# 按契约开发...
lra set task_001_01 completed # 完成并验证

大模型 - 验收

集成测试和代码合并

lra test regression # 回归测试
lra test quality # 质量检查
# 合并代码...

让你的 Agent 开发效率提升 5x

3 分钟快速开始,立即体验 LRA 的强大功能

想要可视化界面?

如果你想用可视化界面来使用 LRA 管理 Agent 军团,可以查看 Stratix 项目。 Stratix 提供了完整的图形界面,让你更直观地管理任务、监控进度、协调多个 Agent。

访问 Stratix 项目