Self-Evolution Engine

AutoLoop
任务自进化引擎。

只要一个任务可以被描述为目标、评估标准和预算,AutoLoop 就会自主提出候选方案,在成本和变更范围内自主迭代改进,直到逼近最优解。

optimize.py
from autoloop import loop

# 三个参数,启动一个自进化循环
result = loop(
    target = my_task,           # 任何可描述的目标
    metric = your_kpi,          # 你的评估标准
    budget = 20                # 迭代预算
)

# 引擎自主运行:提出候选 → 评估 → 择优 → 重复
print(result.best)            # 最优版本
print(result.improvement)     # → +34.2%
01 — 核心主张

竞争力不在调用了多少模型,
在于把优化过程系统化。

大多数 AI 工具只负责生成结果,结果好坏仍然高度依赖人工修改和反复重试。AutoLoop 把这个过程系统化。

传统 AI 工具
AutoLoop
🎯生成一次
调用模型,返回一个结果,好坏完全靠运气和 Prompt 技巧
🔄持续迭代
围绕目标函数自动提出候选、评估、择优,每轮都比上轮更好
👤人工判断
结果是否"足够好"依赖人的主观判断和反复试错
📐标准驱动
用你定义的 Metric 函数做客观评估,消除主观偏差
🔀不可复现
没有历史记录,每次修改都是从零开始的试错
📊可追溯
完整的迭代历史、策略记录和评分数据,支持断点续跑

把「提出改进」和
「判断是否更优」
拆成独立模块。

这是 AutoLoop 的核心设计:Agent 负责生成候选方案,Metric 负责评估质量,Loop 负责决策和调度。三者独立、可替换、可组合。

这意味着你可以用任何模型驱动生成,用任何标准驱动评估 —— 不管是 LLM 评分、业务 KPI、测试通过率,还是自定义函数。

  • Agent 可接入任意 OpenAI-compatible 模型
  • Metric 支持 LLM-as-Judge、自定义函数、多指标加权融合
  • 5 种优化策略自动切换,避免陷入局部最优
  • 预算 + 花费双重上限,成本 100% 可预测
  • 完整迭代历史可追溯,支持 Cancel / Retry / Continue
02 — 工作原理

三个参数,一个自进化闭环。

map() 一样简洁的 API。只需告诉引擎:优化什么、怎么评判、跑多少轮。

loop( target, metric, budget) best
01

定义目标

target

传入需要优化的对象 —— 一段文本、一份代码、一个配置文件、甚至一个可调用的函数。引擎自动检测类型(text / code / html / markdown / config),加载对应的优化策略。

02

定义标尺

metric

用你自己的标准定义"什么是更好"。可以是内置的 LLM-as-Judge 多维评分,也可以是你的业务指标 —— CTR、转化率、测试通过率、可读性评分,任何返回数值的函数。

03

设定边界

budget

设定最大迭代轮数和 API 花费上限。引擎在预算范围内自主探索:三阶段温度策略(Explore 0.9 → Exploit 0.6 → Polish 0.3),逐步收敛到最优解。

03 — 核心竞争力

不是模型调用层,
是自主优化系统。

每一个模块都围绕同一个目标设计:让优化过程可编程、可控制、可复现。

🔄

闭环自主迭代

Closed-Loop

不是调用模型然后等人判断 —— 是一个完整的自主优化闭环:Agent 提出改进候选 → Metric 独立评估质量 → Loop 决定接受或拒绝 → 下一轮继续。全程无需人工干预。

observehypothesizetrymeasurejudge
📐

可编程的评估标准

Programmable Metric

优化方向由你的 Metric 函数决定。内置 LLM-as-Judge 5 维评分和 Pairwise A/B 比较,也完全支持自定义函数 —— 用你的业务 KPI 驱动迭代,而不是靠通用评分猜测。

llm_judge()pairwise()combine_metrics()custom fn
🧠

自适应策略引擎

Adaptive Strategy

维护 5 种独立优化策略:结构重组、目标增强、语言精炼、约束强化、创意突破。连续 3 轮停滞自动切换策略方向,系统性跳出局部最优,而非盲目重试。

structuralcontentlanguageconstraintscreative
🌡

三阶段温度控制

Three-Phase Temp

不是固定参数跑到底。前期高温 (0.9) 大胆探索可能性空间,中期 (0.6) 聚焦最优方向深挖,后期 (0.3) 精细打磨每个细节。系统自动调节,模拟真实的优化收敛过程。

EXPLORE 0.9EXPLOIT 0.6POLISH 0.3
💰

成本与变更控制

Cost Control

budget 限制最大迭代轮数,cost_limit 限制 API 花费上限,max_diff 限制每轮最大变更幅度。三道防线确保优化过程完全可控,预算用尽优雅收敛,绝不失控。

budget=Ncost_limit=$max_diff=30graceful stop
📊

完整过程可追溯

Full Traceability

每一轮的策略选择、候选方案、评分结果、接受/拒绝决策 —— 全部记录在案。支持从任意节点断点续跑 (Continue),特定轮次重试 (Retry),或随时中止 (Cancel)。

history[]continueretrycancelSSE 实时推送
04 — 装饰器模式

一行装饰器,让任何函数自进化。

把优化能力
注入到业务函数里。

除了直接调用 loop(),AutoLoop 还支持 @loop 装饰器模式

在任何已有函数上加一行装饰器,它的输出就会自动经过多轮优化。相同输入的优化结果会被缓存,后续调用直接返回最优版本。

这意味着你不需要重构代码 —— 给现有函数加一行注解,就能获得自进化能力。

decorator.py
from autoloop import loop

# 装饰器模式:让函数输出自动进化
@loop(metric=conversion_rate, budget=15)
def generate_email(topic):
    return draft(topic)

# 第一次调用:自动优化 15 轮
email = generate_email("新品发布")

# 第二次调用:直接返回缓存的最优版本
email = generate_email("新品发布")
05 — 系统架构

三个独立模块,一个优化闭环。

Agent 提出改进,Metric 独立评估,Loop 做出决策 —— 三者解耦,各自可替换。

Module 01 · 提出改进

Agent

根据上一轮反馈、当前策略和历史记录,生成优化候选方案。

  • OpenAI-compatible,可接入任意大模型
  • 5 种优化策略自动轮换
  • 三阶段温度自适应调节
  • 连续停滞自动检测并切换方向
Module 02 · 判断好坏

Metric

独立于 Agent 的评估模块 —— 定义"什么是更好"。

  • LLM-as-Judge 5 维 × 0-10 结构化评分
  • Pairwise A/B 比较模式
  • combine_metrics 多指标加权融合
  • 支持任意自定义评估函数
Module 03 · 决策调度

Loop

核心调度器:协调 Agent 和 Metric,管理整个优化生命周期。

  • Gate 最低门槛 + max_diff 变更幅度限制
  • 支持 maximize 和 minimize 双方向
  • Cancel / Retry / Continue 全生命周期
  • SQLite WAL 持久化 + SSE 实时事件推送
06 — 适用场景

只要任务可度量,就能自主优化。

无论是 Prompt、代码、文档、配置,还是其他可度量任务 —— AutoLoop 都能把人工反复试错的过程变成一个可控的优化闭环。

💬

Prompt 工程

用输出质量评分驱动 System Prompt 自动迭代。不再手动调试 Prompt、猜测哪个版本更好 —— 让 Metric 说了算。

loop(prompt, output_quality, 20)
🔧

代码优化

以测试通过率、代码质量评分或性能指标驱动重构。保持行为一致的前提下,逐轮提升代码质量。

loop(code, test_pass_rate, 15)

营销文案

用打开率、回复率、转化率等业务 KPI 作为 Metric,驱动邮件标题、正文和 CTA 的逐轮优化迭代。

loop(email, reply_rate, 20)
📄

技术文档

优化 README、API 文档、技术规范。用可读性和完整性评分驱动结构、措辞和示例代码的持续改进。

loop(readme, clarity_score, 10)

配置文件

自动补全缺失字段、添加关键注释、规范结构层级、检测潜在安全风险。支持 YAML / JSON / TOML。

loop(config, validation_score, 10)
🧩

自定义任务

任何可以被描述为"输入 → 评估 → 改进"的任务都能接入 AutoLoop。定义你自己的 target 和 metric,引擎处理剩下的一切。

loop(anything, your_metric, N)
07 — 使用方式

六种接入方式,按需选择。

从一行命令到完整 REST API,覆盖从个人探索到生产集成的全部场景。

命令行 CLI

Command Line

一行命令启动优化。支持文本直传、文件读取、模板选择、历史查看与断点续跑。

$ autoloop "你的文本" --budget 10 查看 CLI 文档
🐍

Python API

Direct Call

三个参数启动自进化循环。传入目标、评估函数和预算,返回包含最优结果和完整迭代历史的 LoopResult。

loop(target, metric, budget) 查看 API 文档
🎯

装饰器模式

Decorator

一行注解让任何函数输出自动进化。相同输入的优化结果自动缓存,后续调用直接返回最优版本。

@loop(metric=fn, budget=15) 查看装饰器用法
🌐

Web 界面

Web UI

浏览器可视化操作。实时查看每轮迭代进度、评分变化和策略切换,支持取消和重试。

$ autoloop serve --port 8000 启动 Web UI
🔌

REST API

HTTP Service

完整的 RESTful 接口。支持 SSE 实时事件推送、BYOK 模式、Job 持久化和全生命周期管理。

POST /optimize   GET /jobs/:id/events 查看接口文档

批量并行

LoopPool

多任务并行优化。指定 worker 数量,批量提交目标,引擎自动调度并行执行。

pool.map([t1, t2, t3], metric, 10) 查看并行文档
支持的模型提供商
DeepSeek OpenAI Anthropic Ollama

选择适合你的方式,立即开始第一个自进化循环。

让你的任务
开始自主进化。

打开 Web UI,立即启动你的第一个自进化循环。