Claude Code CLAUDE.md 完整教學 — 讓 AI 記住你的專案,從此不用重複解釋
同樣的事說第三遍,通常代表有個地方沒設計好。 你跟 Claude Code 說「用 pnpm 不要用 npm」,它照做了。第二天開新 session,它又裝了 npm。你說了第二次。第三次。第四次。 這不是 Claude 記性差,是 session 的設計就是這樣——每次啟動都是乾淨的 context,不帶任何記憶。CLAUDE.md 就是專門解決這件事的機制。 兩種記憶,分工不同Claude Code 有兩套跨 session 的記憶機制,先把它們搞清楚再說怎麼用。 CLAUDE.md:你寫的,Claude 讀的。放進去的是「每個 session 都要成立的規則」——build 指令、coding style、專案架構、「一定要做 X」這種事。每次 Claude Code 啟動都會自動讀進來,不需要你再說一次。 Auto Memory:Claude 寫的,你檢查的。Claude 在工作過程中,如果遇到它判斷「下次會有用」的資訊,就會自動存進去——你糾正了一個它老是用錯的函式、跑了一個奇特的 debug 流程、說了一個這個 repo 特有的習慣,它會把這些記下來。 用一個類比:...
AI 與科技新聞摘要 - 2026/04/24
六週。GPT-5.4 到 GPT-5.5,就是六週。 上個月還在討論 GPT-5.4 夠不夠用,這週 GPT-5.5 已經在 ChatGPT 和 Codex 上線。AI 模型的發布週期現在短到讓人懷疑:這些版本之間的差距到底是「真進化」還是「讓人有理由繼續訂閱的節奏感」? 同一天,DeepSeek 在台灣上午發布了 V4-Pro 和 V4-Flash。定價讓人有點沉默。 OpenAI GPT-5.5 — 「Spud」上線,主打 Agentic 能力4 月 23 日,OpenAI 推出 GPT-5.5,內部代號 Spud,向 Plus、Pro、Business、Enterprise 用戶全面開放,同時升級了 Codex 的底層模型。 API 定價:$5/百萬 input tokens,$30/百萬 output tokens,context window 1M。跟 GPT-5.4 相比,token 延遲持平,但能力更強——OpenAI 的說法是「更少 tokens 做更多事的思考者」。 重點能力是多步驟工作流的自主性:GPT-5.5 設計上可以在更少用戶介入的...
OpenAI Codex 2026 — 雲端並行的自主 AI 編程代理
大部分 AI coding 工具解決的是「怎麼讓工程師打字打得更快」這個問題。Codex 想解決的是另一個問題——怎麼讓工程師不用打字。 這個區別看起來小,但它改變了工具的整個設計邏輯。 Codex 是什麼,不是什麼先清楚一件事:2026 年的 OpenAI Codex 跟 2021 年那個同名模型沒有直接關係。新 Codex 是一個自主 coding agent 應用程式,底層跑的是 GPT-5.5,現在已有超過 300 萬名每週活躍的開發者在用。 它的定位更接近一個「可以放在背景跑的工程師同事」——你給任務,它去幹,你去睡覺。 和 Cursor、Windsurf 這種 IDE 不同,Codex 不是在你的編輯器裡工作的。它跑在雲端的隔離容器裡,每個任務有自己的 sandbox,預先 clone 你的 repo,在裡面執行指令、跑測試、改程式碼,完成後把結果推回來給你 review。 雲端 Sandbox 的設計邏輯每個 Codex 任務都在一個乾淨的容器裡跑。這個容器: 預先載入你的 git repo(透過 GitHub 連結) 可以執行 shell 指令、跑 lint...
Claude Code Ultraplan 完整教學 — 把規劃交給雲端,讓 Claude 替你想 30 分鐘
普通規劃和 Ultraplan 的差距,不是 Claude 有多聰明。是你等不等它想清楚。 在本地跑 plan mode 的時候,Claude 開始思考,你的終端機就被佔住了。你可以等它想,也可以去做別的事,但你不知道它什麼時候想完,也沒辦法在它思考過程中給它回饋。最後它端出一個計劃,你看了之後說「這個方向不對」,然後重來。 Ultraplan 把這個流程整個翻轉。Claude 去雲端想,你繼續在本地工作。計劃生成完,它給你一個連結,你開瀏覽器去 review,可以在特定段落留言、用 emoji 反應表示認可或疑慮、要求局部修改,最後選擇怎麼執行。整個過程 Claude 替你佔用的是雲端算力,不是你的終端機。 它在後台做什麼輸入 /ultraplan 你的任務描述 之後,會看到一個確認提示。確認之後,流程啟動: 第一步,雲端環境準備。 Claude 在 Anthropic 的雲端伺服器上配置一個臨時容器,把你的 GitHub 倉庫 clone 進去。如果你的 repo 有 setup script,它會執行來安裝依賴、建立環境。 第二步,讀懂 repo。 Claude 在雲端容...
AI 與科技新聞摘要 - 2026/04/23
$1,000,000,000,000。 這不是 Anthropic 的融資額,是它在二級市場的估值。4 月 23 日,Anthropic 在 Forge Global 等二級市場交易平台的隱含估值越過了兆美元門檻,同時間 OpenAI 停在 $8,800 億,低於它自己去年底 $8,520 億的官方估值。 這個數字的荒謬感在於,Anthropic 連 IPO 都還沒有。公開市場對它完全無從定價。但機構投資人搶得如此激烈,把二級流通股票的要價推到了傳統估值方法難以支撐的位置。這不是理性定價,是稀缺性恐慌——害怕現在不買,以後根本買不到。 同一週,Google Cloud Next 2026 在拉斯維加斯展示了一套重新架構的 agent 基礎設施,A2A 協定正式量產,支援者從六個框架變成幾乎整個生態系。 有些事情正在同時改變,它們之間有關聯。 Google Cloud Next 2026 — Vertex AI 不見了,Gemini Enterprise 接手4 月 22 日 Google Cloud Next 2026 最大的一個動作,不是發布新功能,是改名。 Vertex A...
Agent Skills — 給 AI 編碼助手的工程紀律指令集
AI coding agent 不是不夠聰明。它太會找理由了。 跟它說寫完記得補測試,它會說「這個功能比較簡單,測試等之後再補」。跟它說上線前做 code review,它說「改動很小,應該沒問題」。跟它做安全審查,它說「這只是內部工具,威脅模型不複雜」。每一個理由聽起來都很合理,每一個結果都讓你在兩週後踩坑。 問題不是 AI 不知道該怎麼做。問題是它沒有理由在沒人要求的情況下把每件事都做完整。 Agent Skills 的設計思路就從這裡開始:不靠信任,靠結構。 19 份文件,覆蓋整個開發生命週期整個專案沒有任何程式碼依賴。就是 19 份 Markdown 文件,每份對應開發流程的一個階段,告訴 AI agent 這個階段該做什麼、怎麼驗證自己做完了。 作者是 Addy Osmani,Google Chrome 前工程總監,Software Engineering at Google 的貢獻者之一。這本書裡很多工程紀律的理念——測試文化、增量實作、強制 code review——在 Agent Skills 裡都有對應的實作。 按開發階段分成六大類: Define:idea-...
GitHub Copilot 停止新用戶註冊後,工程師怎麼平移到 Claude Code
GitHub Copilot 在 4 月 20 日暫停了所有個人方案的新用戶註冊。同時,Pro 方案的用戶即將失去 Claude Opus 模型的存取權。 如果你是剛好要開新帳號的工程師,或者是衝著 Opus 去的 Pro 用戶,現在是個評估要不要換工具的時間點。 這篇是從 Copilot 遷移到 Claude Code 的操作指南,不是比較評測(已有一篇),也不是勸你換工具。你得自己決定值不值得換,但換之前至少要知道怎麼換、換了之後哪些習慣要調整。 先搞清楚兩個工具的根本差異遷移前最重要的一件事不是「A 功能在哪裡」,而是「這個工具假設你怎麼工作」。不懂這個,你會用 Copilot 的思維用 Claude Code,然後覺得它很難用。 Copilot 的設計假設:你在 IDE 裡工作,AI 在旁邊輔助。你寫程式,AI 補全、提建議、回答問題。主導者是你,AI 是智慧自動補全。 Claude Code 的設計假設:你在 terminal 裡工作,AI 和你一起做事。你描述目標或問題,AI 讀檔案、跑指令、修程式碼。主導者更模糊——Claude Code 可以接管一個任務然後跑到...
AI 與科技新聞摘要 - 2026/04/22
77%。 去年這個數字是 20%。這不是某個廠商的行銷數字,是 Stanford AI Index 2026 剛剛公布的 Terminal-Bench 基準——測試 AI agent 處理真實世界任務的成功率。一年之間,從五題答一題,到十題答八題。 同一份報告裡還有一個數字:280%。這是「Agentic AI」技能需求在職缺描述中的年增幅,從 0.06% 到 0.23%,絕對數字是美國約 9 萬個職缺。兩個數字放在一起看,AI agent 的進步曲線和市場需求曲線,幾乎是同步加速的。 這週的幾條新聞,放在這個背景下讀會有不同的感受。 Stanford AI Index 2026 — AI agent 成功率翻了將近四倍Stanford HAI 今年的 AI Index 報告裡,數字最驚人的一塊是 agent 能力的進步速度。 OSWorld benchmark 測試 AI agent 在真實作業系統上執行任務的能力。一年前,成功率是 12%;現在是 66%。Terminal-Bench 的數字更極端,從 20% 跳到 77.3%。網路安全方面,AI agent 解決 CTF ...
claude-code-prompts — 拆開一個 AI Coding Agent 的 Prompt 骨架
大部分 AI coding agent 教學的問題不是講錯,是從功能開始,不從問題開始。 「這個工具有幾個 tool call」「這個框架支援哪些 LLM」——這些都不是最重要的問題。最重要的問題是:你怎麼告訴一個 AI agent 它是誰、它能做什麼、它什麼時候該停下來問你? 這個問題的答案,幾乎所有 agent 框架都藏在 prompt 裡——但很少有人完整把 prompt 架構攤開來講。claude-code-prompts 做的事情就是這件:把一個可以實際運作的 AI coding agent 的 prompt 架構整個拆開,38 個 Markdown 檔案,分 7 大類。 這不是「Awesome Prompts」清單先釐清這個專案跟你可能預期的有什麼不同。 awesome-chatgpt-prompts 是角色扮演清單——「你是一個 Linux 終端機」、「你是一個英文老師」。每個 prompt 獨立運作,彼此沒有關係。 claude-code-prompts 完全不是這個概念。它的 38 個 prompt 是互相連動的系統:system prompt 定義 agen...
Think Tool — 讓 Claude 在工具呼叫鏈裡有個草稿紙的設計模式
同一個場景,加了一個東西之後,Claude 的正確率從 37% 跳到 57%。 那個東西不是更強的模型、不是更長的 prompt、不是換一個框架。是加了一個叫 think 的工具——讓 Claude 在工具呼叫鏈的中間,有個地方可以把想法寫下來。 這是 Anthropic 工程師在 2025 年 3 月發表的設計模式。一個工程師做 code review,但不能用草稿紙,所有推理都得在腦子裡跑。同一個人、同樣的問題,給他一張草稿紙,結果大概率不一樣。think tool 就是在做這件事——給 Claude 一張草稿紙,讓它在需要的時候把推理過程寫出來,不直接跳到下一個動作。 它和 Extended Thinking 不一樣這是很多人容易混的地方,值得先講清楚。 Extended Thinking 是 Claude 在開始回應之前的思考——一個深度推理過程,讀完你的問題,在心裡把整個計畫想清楚,然後才開始生成答案。就像你解一道數學題之前,先在腦子裡把解題路徑跑一遍。 think tool 是不一樣的東西。它是 Claude 已經開始行動之後的中途思考。Claude 呼叫了工具 A...









