Getting Good at Claude - 研究驅動的 AI 協作學習路徑
你有沒有想過,為什麼有人用 Claude 幾個月就超牛逼,但有人用了一年還在重複踩坑?差別不在天分,而在於有沒有學對方式。
最近 Anthropic 發佈了一份有夠猛的研究成果——他們分析了超過 50,000 場 Claude 對話,從中找出了人們如何逐步掌握 AI 協作的規律。不是靠猜、不是靠碰運氣,而是實實在在的數據驅動的學習路徑。今天就來拆解一下這套課程到底在教什麼,以及你應該如何應用。
為什麼多數人卡在「新手天花板」
說實話,很多人用 Claude 的方式就是:丟一個需求進去、看結果、複製貼上。有時候能用,有時候垃圾。然後就以為自己「會用 Claude」了。
但真相是,你根本沒有在學習。你只是在透支運氣。
Anthropic 的研究發現,使用者的進度通常沿著兩條軌道發展,但這兩條軌道的成長邏輯完全不同:
- 某些技能會自然成長——只要一直用,經驗累積就會進步
- 某些技能則需要刻意教學和反覆練習,不然永遠改不了
這個發現改變了整個 Claude 的教育設計,也應該改變你的學習策略。
50,000 場對話說出的真相
研究數據涵蓋了 Claude Chat、Claude Code 和 Claude Cowork 三個產品面,統計了 11 個「AI 流暢度指標」(AI Fluency Indicators)。結論很清楚:每個 Claude 產品都有自己的「必殺技」,掌握這招才能打好基礎。
在 Chat 裡,必殺技是「迭代」(Iteration)
- 會在追蹤對話中持續修正的使用者,其他所有流暢度指標都更高
- 反之,只傳一條訊息就走的人,根本沒有發展出任何批判性評估能力
迭代創造了學習的空間。你問、Claude 回答、你調整方向、它優化。這個循環就是成長的引擎。
在 Claude Code 和 Cowork 裡,必殺技是「明確目標」(Clarify the Goal)
- 先講清楚你要什麼,再讓 Claude 開始執行的使用者,後續指令格式、互動風格、任務分解都做得更好
- 反過來,模糊提需求然後期待 Claude 猜對的人,基本上都失敗
看起來簡單,但這就是為什麼有人的 Claude Code 工作流真香,有人卻在持續吐槽「它怎麼都做不對」。
從敘述到評估:學習的三階段
Anthropic 把使用者的成長模型拆成三個層次,分別代表不同持久度的控制方式:
第一層:基礎敘述 (Basic Description)
最直接的塑形方式——這一刻影響這一次回應。迭代、上傳檔案、補充上下文,都在這層。
好消息:這些技能會隨著時間自然成長。只要你持續用 Claude,不需要特別教,你就會慢慢學會怎麼提供更好的背景資訊、怎麼描述得更清楚。
第二層:中等持久性 (Middle Durability)
涉及重複能力的塑形。用 Skills 定義標準流程、設定互動風格、使用 MCP(Model Context Protocol)。
第三層:持久配置 (Lasting Configuration)
在配置層面做一次調整,往後每場對話都受惠,而不需要每次都重複溝通。Project、CLAUDE.md、Scheduled Workflow 都在這層。
這三層裡,前兩層會隨著使用自動進步,但有一個例外…
最難學的課題:評估力 (Discernment)
這是重點。評估能力不會因為你用久了就自動進步,它也不會從其他技能轉移過來。
為什麼?因為現代化的驗證方式很騙人:
- Claude 改了一個檔案?你看 diff,測試通過,就以為沒問題
- Claude 寫了一份報告?讀起來蠻順的,看起來就沒錯誤
- 但這些都只是「你能看到的表面」
看不到的問題才是要命的:
- 編譯通過的代碼可能邏輯思路根本錯誤
- 文筆流暢的報告可能引用的數據來源有問題
- 聽起來很有說服力的建議可能基於錯誤的前提假設
如果你的訓練時間有限,應該把重點放在「評估力」這個環節上,因為這是最容易被忽視、也最致命的盲點。
實戰課程框架
Anthropic 整理出的學習序列超簡潔:
- 優先教產品的必殺技(Chat 是迭代、Code/Cowork 是明確目標)
- 沿著敘述頻譜逐步深入(從基礎到持久配置)
- 在每一步都插入評估檢查(「現在停下來,這個結果對嗎?」)
關鍵是那最後一步——「現在質疑它」。因為如果不把批判性思維烙進學習流程裡,用戶很容易就陷入「盲目信任」的模式。
舉例:Chat 使用者怎麼練
| 難度等級 | 該練什麼 | 怎麼教 | 評估檢查 |
|---|---|---|---|
| 基礎 | 迭代、選模型、上傳檔、網路搜尋 | 現場示範,讓他們拿自己的任務試 | 這個結果真的能用,還是還需要調整一輪? |
| 進階 | Artifacts、Extended Thinking、Connectors | 配合格式指定來創作;把 Thinking 當成「我要 Claude 想得更深」的工具 | 讀讀看 Thinking 過程,推理邏輯到底站不站得住? |
| 深度 | Projects、自訂指令、Memory | 看一個設定好的 Project 如何改變每一場對話 | 你的 Project 設定是真的在幫 Claude,還是只是餵它更多資訊? |
舉例:Claude Code 使用者怎麼練
| 難度等級 | 該練什麼 | 怎麼教 | 評估檢查 |
|---|---|---|---|
| 基礎 | 明確目標、檔案參考、選模型 | 一個清楚的目標、一次執行、然後檢視結果 | 接受 diff 前,先問 Claude:「你對這個任務有什麼假設?」 |
| 進階 | Skills、Slash Commands、MCPs | 打造可重複的能力 | 用這個 Skill 去測試一個它可能搞砸的情境 |
| 深度 | CLAUDE.md、Hooks、Subagents | 在整個 repo 層面塑形每一場工作 | 定期審視你的配置,Claude 有沒有按你預期的方式用它? |
Claude vs 其他 AI 工具:學習方式的差異
你可能在用 Cursor 或 Copilot,或兩者都用。他們怎麼教使用者?通常是:「這是功能,試試看。」
Claude 的研究驅動課程不太一樣。它不是列功能清單,而是基於「50,000 場真實對話」的數據,找出了什麼教法最有效。Cursor 的 Agent 模式有優勢,但它們沒有這種規模的數據分析。Copilot 在企業集成上強,但學習路徑不如 Claude 這套深思熟慮。
換句話說,Claude 不是在賣功能,而是在教你怎麼思考 AI 協作。
適合哪些人
這套課程對以下人群特別有價值:
- 想系統化提升 Claude 技能的開發者——不再靠猜測,用實證方法學習
- 帶團隊的主管或技術主導——想為整個團隊建立 Claude 的培訓課程
- 剛開始用 Claude Code 的人——掌握「明確目標」這個必殺技能
- 覺得自己用 Claude 但成果差強人意的人——可能是評估力沒練好
如果你還在「丟需求→看結果→複製」的循環裡,這套東西就是為你設計的。
最後的想法
學習用 Claude 不像學習一個傳統工具——你不是在學「按哪些按鈕」,而是在學「怎麼和 AI 思考」。研究數據告訴我們,最高效的學習不是瞎試試,而是遵循一個經過驗證的進度:掌握基礎、深化敘述、恆常評估。
最後提醒一下:不要高估自己的評估能力。再有經驗的工程師都容易被漂亮的程式碼或流暢的文筆騙過。這不是你的問題,是 AI 的特性。所以「現在質疑它」要變成習慣,而不是偶爾想起來才做。
真香的不是 Claude 本身,而是掌握了「怎麼和它合作」之後,你能做的事。









