Model Thinking — 把 253 個思維模型塞進 Claude Code 的 Skill
大部分人覺得決策困難是因為資訊不夠。其實不是。
你已經有夠多資訊了——Google、Perplexity、你自己的工作記憶。問題是你用同一個角度看來看去,不管資訊再多,最後還是用你最熟悉的那個框架下結論。
model-thinking 是台灣工程師 kcchien 做的 Claude Code Skill,把 253 個跨學科思維模型打包成一個 AI 可以動態調用的工具箱。它讓 Claude Code 幫你挑框架——不是挑一個,是挑三個:一個做主分析,一個補你看不到的面向,一個故意反駁前兩個。
這個設計本身就值得拆開來看。
先搞清楚「思維模型」是什麼
修一個一直在 crash 的服務,大部分工程師的第一反應是看 log、加 breakpoint、問 ChatGPT。這是一個框架——叫「找最近的變化」或「用症狀反推原因」。
思維模型(Mental Models)就是這類可以重複套用的推理骨架。工程師有除錯框架,物理學家有第一性原理,投資人有機率思考。問題不是某個框架對不對,是你有幾個框架。
只有一個框架的人,所有問題看起來都像是那個框架能解的問題。有一百個框架的人,看到問題的第一步是問「這個情況適合哪種思路?」
253 個模型,涵蓋決策、系統、統計、策略、心理學、網路、演算法、風險、學習、經濟十個領域。不是百科全書,是工具箱——每個模型平均 100-200 字,夠 AI 理解怎麼用,不夠讓人讀了就懂。設計意圖是讓機器幫你挑框架,不是讓你背完 253 個再自己挑。
它裝進去之後怎麼運作
整個 repo 就兩個重要東西:SKILL.md 和一個 references 資料夾。
SKILL.md 是 Agent 入口——它告訴 Claude Code「遇到需要結構化推理的問題時,走這個 workflow」。SKILL.md 本身不大,但它告訴 Claude 去哪個子資料夾讀哪些模型。
1 | model-thinking/ |
有趣的地方在這裡:253 個模型不是一次全載入 context。
這是 model-thinking 裡最值得偷學的設計——Progressive Disclosure(分層載入)。
- Standby(100 字):只告訴 Claude「我有思維模型工具箱」,不佔多少 token
- 啟動時(800 字):載入 SKILL.md 的 workflow 部分
- 分析時(每檔 3,000 字):判斷問題屬於哪個領域後,只載入那個領域的 references 檔
- 跨域時(2,000 字):需要組合多個框架才載入 combinations.md
一次分析下來通常只用 4,000-6,000 字的 context,不會讓 AI 吃撐。如果你自己做過需要大量知識庫的 Skill,你會知道這種設計有多省——全量載入不只燒 token,還會讓 AI 在龐大的上下文裡迷失。
三種模式,AI 自動分流
SKILL.md 定義了三種運作模式:
Guided:你的問題模糊,只描述了症狀。AI 會先問幾個診斷問題,幫你把問題收斂,再挑模型。適合「我覺得這個功能有問題但說不清楚」的情況。
Direct:你知道要問什麼,或已經指定用哪個框架。「用 Pre-Mortem 幫我看這個發布計畫」——AI 直接套 2-3 個模型分析。
Teaching:「解釋一下 Second-Order Thinking,出一道練習題」。AI 先講概念、給例子、再出題讓你練。
三種模式對應三種需求——分析、執行、學習。這個分流設計比「丟一堆資訊讓你自己挑」優雅很多,因為它把「你現在需要什麼」這個判斷交給了框架本身,而不是讓你每次都先想清楚自己想要什麼再問。
三個模型一組,不是挑一個
這是 model-thinking 的靈魂:每次分析,AI 都會挑三個模型組合使用。
- Primary:核心分析
- Complementary:互補視角,補主模型看不到的面向
- Check:盲點偵測,刻意挑一個反駁前兩個結論的角度
combinations.md 還提供五個直接能用的配方:
| 場景 | 模型組合 |
|---|---|
| 產品發表前 | Pre-Mortem + Reinforcing Feedback Loops + Opportunity Cost |
| 團隊失能診斷 | Shifting the Burden + Incentives + Hanlon’s Razor |
| 投資決策 | Margin of Safety + Barbell Strategy + Base Rates |
| 招募 | Reversibility + Second-Order Thinking + Circle of Competence |
| 市場進入 | First Mover + Network Effects + Fat Tails |
每次分析結束,AI 還會跑四個強制驗證:
- Inversion:怎麼證偽這個結論?
- Base Rates:歷史上這類情況的典型結果是什麼?
- Incentives:誰從這個結論中受益?
- Falsifiability:如何知道我們錯了?
這四個問題是專治 confirmation bias 的機制。不是「看起來有道理就收下」,是「主動找理由打臉自己的結論」。
十個萬用模型,先記這些
SKILL.md 欽點了 10 個應該優先考慮的通用模型,這組大概能應付日常 80% 的決策場景:
Inversion:不問「怎樣成功」,問「怎樣保證失敗」。然後避開。
Second-Order Thinking:不只看眼前效應,推演連鎖後果。「加速發布帶來的第二層效應是技術債爆炸」。
Opportunity Cost:量化「做這件事,你放棄了什麼」。大部分人只算做了什麼,不算沒做什麼。
Base Rates:先看這類問題的歷史統計,再判斷個案。「新創公司的成功率是多少,而不是這家公司的商業計畫有多漂亮」。
Margin of Safety:估算與實際之間預留緩衝。不是悲觀,是工程思維。
Incentives:從誘因結構預測人的行為。「這個人說話對他自己有沒有好處」比「這個人說的是不是真的」更容易判斷。
Sunk Cost:決策時忽略沉沒成本。已經燒了六個月不代表該繼續燒下去。
另外三個(Feedback Loops、Map vs Territory、Explore/Exploit)用在特定情境,一樣重要,但不像前七個這麼萬用。
安裝
兩種方式:
1 | # 用作者的 skills-cli(推薦) |
裝好後,Claude Code 在對話中會自動辨識出需要結構化推理的場景。你也可以直接說「用 model-thinking 幫我分析⋯⋯」來強制觸發。
需要 Claude Code 環境,沒有 Claude Code 的話這包東西就只是一堆 markdown。
什麼時候拿出來用
工程決策:要不要引進新框架、要不要拆微服務、要不要重寫舊系統。這類決策容易落入技術偏好陷阱,用 Opportunity Cost + Second-Order Thinking + Base Rates 讓你看清楚完整成本。
產品或功能規劃:送 PRD 前,先用 Pre-Mortem 讓 AI 想像三個月後這個功能失敗了的原因。很多風險會在這個階段被挖出來,比在 retro 裡挖出來便宜很多。
職涯抉擇:Regret Minimization + Two-Way vs One-Way Door + Circle of Competence 三個模型一套,通常比自己反覆糾結清楚很多。
寫文章或演講:用特定模型幫你搭結構骨架,產出的框架通常比「三點論」紮實,因為會自帶對立觀點。
它和 Farnam Street 的靜態文章、Charlie Munger 的演講合集不一樣的地方在於:那些是給人讀的,你得自己記自己內化。model-thinking 是給 AI 讀的,它幫你挑框架,你只要知道「我需要一個更好的角度看這個問題」就夠了。
背後的思路其實很簡單——工具箱裡有什麼不重要,你能在需要的時候拿出對的工具才重要。253 個模型太多記,但一個好的 Skill 能幫你在需要的時候挑出三個。
原文來源:model-thinking GitHub Repository
參考來源:skills-cli — 作者的 Skill 安裝工具
參考來源:Claude Code Agent Skills 官方文件










