前陣子在看 University of Glasgow 的研究,發現一個有夠猛的方向:AI Agent 能夠自己進化,不用人類干預就越來越強。以前我們都以為模型 deploy 下去就固定了,沒想到還有這麼多角度可以自我優化。

Agent 自己進化,到底在進化什麼?

Self-Evolving Agent 的核心概念其實很簡單:讓系統在運作過程中自動改善自己。但「改善」這個詞太寬泛了。這波操作跨越 4 個維度:

第一個維度是 LLM 本身的行為。透過 Reinforcement Learning 和 self-play 這類技巧,模型能從自己的嘗試裡學習。STaR(Self-Taught Reasoner)就是代表作,它讓模型從推理過程中的成功案例自動學習。Absolute Zero 是今年新出的,直接從零資料開始自我對弈,效果炸了。

第二個維度是 Prompt 優化。有人用進化演算法,有人用梯度下降,用 TextGrad 或 OPRO 這樣的框架,系統能自動調整提示詞。不用人類手工調整,程式自己試出更有效的 prompt。

第三個維度是記憶機制。A-MEM 和 Mem0 專注在怎麼壓縮、檢索、跨 session 保留重要資訊。這裡的重點是讓 Agent 記得上次學到的東西,累積經驗。

第四個維度是工具。CREATOR 和 ReTool 這類框架,能讓 Agent 自己寫新工具或改進既有工具。這是最硬核的部分,直接生成程式碼。

技術分類:四個層級的突破

整個領域粗略分成四類。Single-Agent Optimization 是單個 Agent 自己練習,比如 Self-Rewarding Language Models,讓模型自己評分、自己改進。

Multi-Agent Optimization 更有趣,多個 Agent 互相較勁。MetaGPT、GPTSwarm、AFlow 這類框架,讓不同 Agent 協作或競爭,整體系統變得更聰明。

Domain-Specific 的應用已經開始爆發。quantitative trading、biomedical research、software development,各領域都有特化的解決方案。

Evaluation 是最容易踩坑的地方。怎麼評估 Agent 有沒有真的進化,而不是過度優化某個指標?DSPy 和其他框架都在解決這個問題。

代表作和開源生態

EvoAgentX 是 EMNLP’25 的新星,直接整合了進化框架。MASLab 專注多智能體,OpenHands 做自動化開發,OpenEvolve 提供通用基礎。還有 MCP-Zero 這類新東西,把 Claude 的 MCP 生態跟 Agent 進化綁在一起,真的蠻新穎的。

現在(2024-2025)發生了什麼

零資料自我對弈爆發。Absolute Zero 這類工作證明 Agent 不需要人類標注資料,就能透過自我對弈進化。

RL 用在工具使用上。不再只是優化語言輸出,而是優化 Agent 怎麼選擇和組合工具。

MCP 生態成了新的連接點。Agent 透過 MCP 協議連接各種工具和服務,進化變成了自動系統設計的問題。

記憶不再是附加功能,而是核心。記憶的品質直接影響進化效率。

應該知道的風險

好事總有代價。AutoDAN-Turbo 這類研究證明自進化系統容易被利用來生成 jailbreak 提詞。Agent 在優化過程中可能會強化幻覺而不是學到真實知識。評估困難、計算成本高、進化方向不可控,這些都是未來要解決的課題。

但這些限制擋不住這波浪潮。讓 AI 系統自己進化,少依賴人類干預,這是接下來幾年最激動人心的方向。

原文來源:Awesome-Self-Evolving-Agents (GitHub)