美國在 AI 上的私人投資是中國的 23.1 倍。$285.9 億 vs $12.4 億。

但截至 2026 年 3 月,美中最頂尖 AI 模型的性能差距,只剩 **2.7%**。

這個比例如果出現在工程分析報告裡,你的第一反應應該是:「這個 ROI 怎麼解釋?」Stanford HAI 的 2026 AI Index Report 在 4 月 13 日發布,整份報告將近 500 頁,但真正值得停下來想的,是幾個互相矛盾的數字。


AI 能贏奧林匹亞數學賽,但看不懂時鐘

SWE-bench Verified(讓 AI 修複真實 GitHub issue 的 benchmark),去年完成率 60%,今年接近 100%。幾個頂尖模型在 PhD 等級的科學題、競技數學、多模態推理上已經超越人類。

AI agent 處理真實任務的成功率,從 2025 年的 20% 跳到 **77.3%**。資安問題的解題率從 15% 到 **93%**。

同一份報告也紀錄:AI 看類比時鐘的正確率,**50.1%**。

不是 AI 笨——是「能力分布」的問題,報告叫它 jagged frontier(鋸齒前沿)。同一個模型,在連貫的符號推理上突破人類,在需要感知-行動整合的任務上像個剛學習的三歲孩子。

這告訴你一件事:用 benchmark 分數當作「AI 能不能取代某個職位」的判斷工具,是用了錯誤的量尺。正確的問法是:這個職位的哪些任務落在 AI 的強區,哪些落在它的弱區


真正的警報:22-25 歲的工程師

就業數字。

美國 22 到 25 歲的軟體工程師就業人數,**自 2024 年以來下滑了近 20%**。同期,26 歲以上的工程師就業人數持平或小幅成長。

不是工程師整體減少,是入門位置在消失。同樣的模式出現在其他高 AI 暴露度職位——客服、金融分析。

然後是雇主調查:三分之一的受訪企業預期 AI 將在未來一年減少員工數。預期裁員比例最高的三個領域:服務運營、供應鏈、軟體工程

如果你是這個年齡段的工程師,這份報告直接跟你有關。如果你已經過了這個年齡段,不代表跟你無關——它告訴你現在的初級工程師在學什麼、用什麼工具磨合,等他們有 3-5 年經驗的時候,市場會長什麼樣子。


透明度指數:從 58 跌到 40

Foundation Model Transparency Index(基礎模型透明度指數)今年平均分:40 分。去年:58 分。

降幅是 31%。

這個指數衡量的是 AI 公司公開了多少關於自家模型的資訊——訓練資料、運算規模、參數量、風險評估、使用政策。

結論很直接:最強的模型,現在也是最不透明的。幾個最頂尖的模型幾乎不公開任何技術細節。

這件事的連鎖效應:外部研究者沒辦法獨立評估這些模型的風險;企業採購方沒辦法知道他們在用什麼;監管機構在沒有資料的情況下制定規則。透明度下降,不是某家公司的倫理問題,是整個生態系的信息不對稱在加劇。


環境成本:訓練一個模型 = 1.7 萬輛車開一年

Grok 4 訓練過程的估計碳排放:72,816 噸 CO₂ 當量

概念是什麼意思?大約等於 17,000 輛汽車開整整一年的溫室氣體排放。

全球 AI 資料中心的電力容量現在是 29.6 GW,差不多等於整個紐約州的峰值用電量。GPT-4o 推論每年的水資源消耗(用於冷卻伺服器和水力發電),可能超過 1,200 萬人的飲用水需求

這些數字不是用來讓你有罪惡感的——是說,「AI 是否永續」這個問題,不是 2030 年才需要考慮的,現在就是問題。


一個不舒服的框架

拿這幾個數字放在一起看:

  • 美國砸 23 倍資金,但效能差距只剩 2.7%
  • 最強的模型越來越不透明
  • 入門工程師職位在縮減,中高級工程師需求持平
  • AI 的環境成本在高速攀升

這不是「AI 好棒棒」也不是「AI 毀了我們」的敘事。背後的結構是:AI 的收益在集中,成本在分散。資本、算力、才能——往少數公司集中。碳排放、就業結構衝擊、資訊不對稱的風險——分散給所有人。

這不是 AI 特有的問題,它是幾乎所有技術浪潮的基本動態。知道這個框架,你才有辦法決定自己在這個浪潮裡想站在哪裡,做什麼選擇。

原文來源:Inside the AI Index: 12 Takeaways from the 2026 Report - Stanford HAI
完整報告:The 2026 AI Index Report | Stanford HAI