AI 與科技新聞摘要 - 2026/04/14
Anthropic 做了一個太強所以不敢公開的模型、MCP 從實驗協定變成基礎建設、AWS 用「寫規格」取代「寫 prompt」重新定義 AI IDE、GitHub Copilot 終於讓你自帶金鑰、Google 在 ICLR 發了一篇可能改變大模型部署成本的論文。週二早上的資訊量不小。
Anthropic Claude Mythos Preview - 太會找漏洞所以不公開
CVSS 9.8 的 FreeBSD 遠端程式碼執行漏洞,藏了 17 年沒人發現。Claude Mythos Preview 花幾週就挖出來了。
Mythos Preview 是 Anthropic 最新的前沿模型,通用能力本來就強,但讓資安圈炸鍋的是它的副產品:在幾週的測試期間,這個模型自主發現了上千個零日漏洞,涵蓋每一個主流作業系統和主流瀏覽器。Anthropic 強調這些能力不是刻意訓練的,而是程式碼理解、推理和自主性全面提升後自然浮現的結果。
問題在於,能找漏洞的能力跟能利用漏洞的能力是一體兩面。Anthropic 的選擇是不公開發布 Mythos Preview,改走「Project Glasswing」路線 - 把模型限制在經過審核的資安組織內使用。合作夥伴名單很猛:Amazon、Apple、Microsoft、Cisco、CrowdStrike、Linux Foundation、Palo Alto Networks。Anthropic 還承諾投入 1 億美金的使用額度和 400 萬美金的直接捐款給開源資安組織。
Fortune 上週五引述一位資安老將的評論:「真正的問題不是找到漏洞,是修掉它們。」的確,如果發現速度遠超修復速度,這反而可能創造一個更危險的過渡期。
原文來源:Project Glasswing: Securing critical software for the AI era
原文來源:Anthropic’s Claude Mythos Finds Thousands of Zero-Day Flaws
MCP 協定安裝量突破 9,700 萬 - 從實驗品到基礎建設
三月份 Anthropic 的 Model Context Protocol 累計安裝量達到 9,700 萬,跟去年這時候還在討論「MCP 到底有沒有用」的氣氛完全不同了。
轉折點有幾個。每一家主要 AI 提供商現在都出貨 MCP 相容的工具鏈,Linux Foundation 也宣布把 MCP 納入開放治理。這等於是從「Anthropic 自己推的標準」升級成「產業共用的基礎設施」。對開發者來說最直接的影響是:不管你用 Claude、GPT、Gemini 還是 Kiro,接工具的方式都一樣了。
這跟幾年前 Docker 的標準化過程有點像 - 一旦跨過臨界點,不支援反而變成劣勢。
AWS Kiro IDE - 用 spec 取代 prompt 的 AI 開發環境
AWS 三月正式推出 Kiro,一個基於 VS Code 的 AI IDE,直接跟 Cursor、Windsurf 搶市場。但切入角度不太一樣。
Cursor 和 Windsurf 的核心是「你跟 AI 對話,AI 幫你寫程式」。Kiro 的核心是 spec-driven development - 你先寫規格(用 EARS 語法的 user stories + acceptance criteria),Kiro 再根據規格去實作。聽起來像是多了一步,但在大型專案裡,這一步可能決定 AI 產出的品質上限。
底層用的是 Claude Sonnet 4,支援 MCP,可以保留你所有的 VS Code 設定和外掛。Amazon Q Developer CLI 已經可以直接升級成 Kiro CLI(q update 一鍵搞定)。
目前 AI coding 助手市場已經有六家 VS Code 衍生產品在搶:Cursor、Windsurf、Trae、PearAI、Void、Kiro。卷成這樣,對使用者來說倒是好事。
原文來源:Kiro Is AWS’s Specs-Centric Answer to Windsurf and Cursor
GitHub Copilot 開放 BYOK - 自帶金鑰、自選模型
GitHub Copilot CLI 現在支援 BYOK(Bring Your Own Key),可以接 Azure OpenAI、Anthropic、OpenAI 相容 API,甚至 Ollama 本地模型。團隊不再被綁死在 GitHub 提供的模型路由上。
同時 Microsoft 在 Copilot 平台層面也做了升級:允許多個 AI 模型在同一個工作流裡協作,新增 Critique 功能讓一個模型產出、另一個模型審查正確性。這跟 Oh My OpenAgent 的思路有點像,只是 Microsoft 把它做進了官方平台。
搭配上週 Copilot 暫停免費試用、砍掉 Opus 4.6 Fast 的消息來看,GitHub 明顯在重新調整商業策略 - 開放模型選擇權吸引付費使用者,同時控制免費資源的消耗。
Google TurboQuant - 讓大模型記憶體需求砍半的量化演算法
Google 研究團隊在 ICLR 2026 發表了 TurboQuant,解決的是大模型推理時最大的瓶頸之一:KV cache 記憶體佔用。
做法是兩步壓縮:先用 PolarQuant 向量旋轉,再用 Quantized Johnson-Lindenstrauss 壓縮法。效果是讓超長 context window 的模型可以用明顯更少的記憶體跑起來。對雲端服務商來說,這直接影響每次推理的成本;對本地部署來說,這可能讓原本跑不動的模型變得可行。
論文的實用價值比較高,不是那種「理論上很漂亮但離產品很遠」的研究。如果你在做 LLM 部署或推理優化,值得細讀。
OpenAI Responses API 擴充 - 加入 Shell 工具和 Agent 執行迴圈
OpenAI 宣布擴充 Responses API,讓開發者更容易建構 agentic 工作流。新增功能包括:shell 工具(讓 Agent 直接執行命令列)、內建的 agent 執行迴圈、託管容器工作空間、context 壓縮、以及可重用的 agent skills。
這基本上是 OpenAI 在追趕 Claude Code 和 Kiro 已經有的能力。有趣的是 shell 工具的加入 - 這代表 OpenAI 也認為 AI Agent 需要直接操作系統環境的能力,而不只是產出程式碼讓人去跑。Agent 執行迴圈和 context 壓縮則是在解決長時間任務的實際工程問題。
對開發者來說,API 層面的 agentic 能力越成熟,就越不需要依賴第三方框架。LangChain 可能需要認真想想自己的定位了。










