OpenAI 出了一個 Claude Code 的插件。你沒看錯——OpenAI 的 Codex,跑在 Anthropic 的 Claude Code 裡面,幫你做 code review。AI 公司之間的競爭到了這個階段,連「讓對手的產品幫自己做事」都變成一種合作模式了。


這東西是什麼

openai/codex-plugin-cc 是 OpenAI 官方開發的 Claude Code 插件,Apache-2.0 授權,GitHub 上 4,400 多顆星。裝完之後,你在 Claude Code 裡面就多了一組 /codex: 開頭的指令,可以直接呼叫 OpenAI Codex 來審查程式碼或委派任務。

用白話講:Claude 寫完 code,叫 Codex 來挑毛病。兩個 AI 互相 review,你坐著看戲。


裝起來要幾步

前提:Node.js >= 18.18、ChatGPT 訂閱(免費版也行)或 OpenAI API Key、已經裝了 Claude Code。

1
2
3
4
5
6
7
8
9
10
11
# 新增 marketplace
/plugin marketplace add openai/codex-plugin-cc

# 安裝插件
/plugin install codex@openai-codex

# 重新載入
/reload-plugins

# 設定檢查
/codex:setup

Codex CLI 沒裝的話:

1
2
npm install -g @openai/codex
codex login

四步搞定,十分鐘以內的事。


七個指令,三種玩法

指令 用途 模式
/codex:review 標準程式碼審查 唯讀
/codex:adversarial-review 對抗式審查(挑戰設計決策) 唯讀
/codex:rescue 委派任務給 Codex 執行 可寫
/codex:status 查看任務狀態
/codex:result 取得完成的任務結果
/codex:cancel 取消執行中的任務
/codex:setup 環境檢查與設定

核心就三個功能:reviewadversarial-reviewrescue。其他都是輔助。


標準審查 vs 對抗式審查

標準審查很直觀:

1
2
3
/codex:review                  # 審查未提交的變更
/codex:review --base main # 審查跟 main 的差異
/codex:review --background # 背景跑,不擋手

對抗式審查才是有趣的部分。它用 GPT-5.4 + 結構化 JSON Schema 輸出,專門挑戰你的設計決策、架構假設、失敗模式:

1
2
/codex:adversarial-review --base main 質疑快取和重試設計是否正確
/codex:adversarial-review --background 尋找 race conditions

可以附加 focus text 指定審查重點。比如你知道某段 concurrent code 寫得有點心虛,讓它專門去找 race condition,比自己眼睛看有效率多了。


Rescue 模式——卡關時的第二大腦

Claude Code 在某個 bug 上反覆修不好?直接丟給 Codex:

1
2
3
/codex:rescue 調查測試失敗的原因
/codex:rescue --model spark --effort medium 快速調查
/codex:rescue --write fix the bug # 允許修改檔案

可選模型:spark(gpt-5.3-codex-spark)和 gpt-5.4-mini。Effort 從 nonexhigh 六個等級,自己控制 Codex 要「想多少」。

這招在 debug 卡關的時候特別好用。兩個模型的推理路徑不一樣,Claude 繞不出來的問題,換 Codex 切入有時候一下就通了。


Review Gate——自動品質門檻

啟用後,每次 Claude Code session 結束前會自動觸發 Codex 審查。發現問題?阻止你收工。

1
2
/codex:setup --enable-review-gate   # 啟用
/codex:setup --disable-review-gate # 關閉

聽起來很美,但要小心:Review Gate 可能讓 Claude 和 Codex 進入無限迴圈,兩邊互相 review 互相改,用量直接爆。建議只在你主動盯著 session 的時候才開。


架構長什麼樣

底層走 JSON-RPC over stdio/Unix socket,跟 Codex App Server 通訊。兩種連線模式:

  • Direct:直接 spawn codex app-server 子行程
  • Broker:透過 Unix socket 連線到共享的 Codex runtime

背景任務用 detached child process 跑,有完整的任務追蹤:queuedrunningcompleted / failed / cancelled

專案結構也不複雜:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
plugins/codex/
├── agents/codex-rescue.md # 子代理定義
├── commands/ # 7 個斜線指令
├── hooks/hooks.json # Session 生命週期 hooks
├── prompts/ # Prompt 範本
├── schemas/review-output.schema.json
├── scripts/ # 核心邏輯
│ ├── codex-companion.mjs # 主入口
│ ├── app-server-broker.mjs # Broker 模式
│ └── lib/
│ ├── app-server.mjs # JSON-RPC 客戶端
│ ├── codex.mjs # Review/Task/Thread
│ ├── git.mjs # Git 操作
│ └── job-control.mjs # 任務狀態
└── skills/
├── codex-cli-runtime/
├── codex-result-handling/
└── gpt-5-4-prompting/ # GPT-5.4 提示工程

幾個實戰場景

PR 前交叉審查:Claude 寫完功能,/codex:adversarial-review --base main 讓 Codex 從對立角度挑戰。Claude 容易忽略的邊界條件,Codex 有時候抓得到。

並行工作流/codex:review --background 丟到背景,繼續用 Claude 做別的事,做完用 /codex:result 撈回來。

模型互補:Codex 的 GPT-5.4 和 Claude 的 Opus 各有擅長。Claude 寫程式碼,Codex 做安全性和邊界條件審查——兩個 AI 的 blind spot 不太一樣,互相補位效果不錯。


要注意的事

所有 Codex 操作都計入 ChatGPT / OpenAI API 用量。Review Gate 開著跑一個下午,帳單可能會讓你嚇一跳。

這是 v1.0.1,非常早期。API 隨時可能改。Codex CLI 需要獨立認證(codex login),跟 Claude Code 的認證是分開的。

還有一點:你等於同時把 code 送給 Anthropic 和 OpenAI 兩家公司的 API。如果公司有嚴格的資安政策,這件事需要先確認。


AI 工具之間開始出現跨生態系的協作——OpenAI 的模型跑在 Anthropic 的工具鏈裡面,這在兩年前是不可能的事。Plugin marketplace 讓這種整合變得很容易,而開發者是最大的受益者:不用選邊站,兩邊的長處都能用。

參考來源:openai/codex-plugin-cc — GitHub
參考來源:Claude Code Skills Training - Anthropic Academy