閉源。Meta 決定把新模型鎖起來——這家公司花了三年建立開源生態,然後在一個早上放棄了。

Muse Spark 是 Meta 第一個閉源 AI 模型,由 Alexandr Wang 帶領的 Superintelligence Labs 開發。同一週,Cursor 3.0 推出 Design Mode 讓你用手指直接點 UI 元素改 code,年化營收衝到 $2B。Microsoft 把 MCP 整合正式塞進企業級 Fabric 平台,月下載量兩個月內從 97M 漲到 164M。

而在另一面,Apache ActiveMQ 的漏洞被列入 CISA 已知被利用目錄,一個標榜「Cybersecurity AI」的框架自己被挖出最基本的指令注入 RCE。

建設的速度在加快。崩壞的方式也在進化。


Meta Muse Spark:三年開源信仰,一夕翻盤

4 月 8 日,Meta 發布了 Muse Spark。

這是一個原生多模態推理模型,支援工具使用、視覺推理鏈、多 agent 協作。性能在 GPT-5.4 和 Claude Sonnet 4.6 的區間,不算頂尖但也沒有掉隊。它已經部署在 Meta AI app、WhatsApp、Instagram、Facebook、Messenger,還有那副 AI 眼鏡。

重點不是性能數字。重點是這個模型是閉源的。

Meta 過去三年靠 Llama 系列打造了全球最大的開源 AI 生態系。Llama 2、Llama 3、Llama 4——每一代都是開源社群的盛事,每次發布都有數千個 fine-tune 版本在 Hugging Face 上冒出來。Meta 用開源換來了開發者的信任、學術界的論文引用、以及「AI 民主化」的品牌敘事。

然後 Alexandr Wang 來了。Scale AI 的創辦人,2024 年被 Zuckerberg 用 $14.6B 挖進來。Wang 的第一個大動作就是——鎖起來。

為什麼重要?因為 Meta 的開源策略不只是一個技術決策,它是整個 Llama 生態的社會契約。成千上萬的公司在 Llama 上面建產品、做 fine-tune、跑推論。現在 Meta 說:下一代,我們自己留著用。

這裡的系統性風險不在 Meta 本身。在於整個開源 AI 生態對單一供應商的依賴程度。如果你的核心推論管線建在 Llama 上,Meta 的路線轉向對你來說不是新聞——是供應鏈風險。開源不等於永遠開源。免費不等於永遠免費。老實說,任何把商業公司的「開源承諾」當成長期保證的架構決策,本身就是一個脆弱性。

原文來源:Goodbye Llama: Meta launches new proprietary AI model Muse Spark
原文來源:Meta debuts the Muse Spark model in a ground-up overhaul of its AI | TechCrunch
原文來源:Meta debuts first major AI model since $14 billion deal | CNBC


Cursor 3.0 Design Mode:直接點 UI 元素,AI 幫你改 code

4 月 2 日,Cursor 推出 3.0 版,最大的改動叫 Design Mode。

概念很直覺:你在瀏覽器裡看到一個 button 顏色不對,直接點它。Cursor 自動定位到對應的程式碼,AI 幫你改。不用再跟 AI 描述「那個第三個 card 上面、右邊那個偏藍色的 button」——你就是直接點。

另一個新功能是 Agents Window。你可以同時跑多個 agent,跨 repo 操作,支援 local、cloud、SSH 環境。白話說就是:你不再受限於「一次只能跑一個 AI agent 在一個 repo 裡」。

數字面:Cursor 的年化營收達到 $2B,超過 100 萬付費用戶,100 萬 DAU。母公司 Anysphere 估值 $60B。

$60B 是什麼概念?比 Snap 的市值還高。一個 IDE 的估值超過一個社群媒體平台。

Design Mode 的真正意義不是「方便」——是它模糊了「設計」和「實作」的邊界。以前你需要一個設計師畫 mockup、一個前端工程師寫 code、來回溝通三輪才能改一個按鈕。現在一個人點一下就完事了。這代表某些角色之間的分工正在被壓縮。

但反過來想:當每個人都能用點的方式改 UI,品質的瓶頸就不再是「能不能實作」,而是「知不知道什麼是好的設計」。工具變簡單了,品味反而變得更值錢。

原文來源:Cursor 3.0 Changelog
原文來源:Cursor 3.0: An agent-first interface | InfoQ


Microsoft Fabric MCP 整合正式 GA:企業級 MCP 落地了

Microsoft 把 MCP(Model Context Protocol)帶進了 Fabric 資料平台,而且是 GA 等級。

兩個版本同時推:Fabric Local MCP 已經 GA,給本地開發用;Fabric Remote MCP 目前 Preview,讓 AI agent 可以在雲端對 Fabric 環境做真正的認證操作——不是讀取而已,是執行。

MCP 生態系的規模數字也很驚人:164M 月下載量,三月才 97M,兩個月成長 70%。2,400+ MCP servers,比任何競爭協定多 10 到 100 倍。

這裡值得停下來想一件事:MCP 正在走 HTTP 當年走過的路。一開始是 Anthropic 推的一個協定規範,大家覺得「又一個標準」。然後 IDE 開始支援、雲端平台開始整合、企業級工具開始 GA——突然之間它就變成了 AI 工具互通的事實標準。

Microsoft 把 MCP 整進 Fabric 的意義在於:這不再是開發者社群的實驗性玩具。當全球最大的企業軟體公司把你的協定放進 GA 產品裡,你就是 infrastructure 了。

風險的另一面是:當所有 AI agent 都透過同一個協定跟資料平台溝通,這個協定本身就變成了單點故障。MCP 的規範漏洞、認證機制的弱點、server 端的實作品質——任何一環出問題,影響的就是整個生態系。164M 月下載量意味著攻擊面也是 164M 月下載量。

原文來源:Agentic Fabric: How MCP is turning your data platform into an AI-native operating system


Apache ActiveMQ CVE-2026-34197:被積極利用中,CISA 已收錄

Apache ActiveMQ Classic 被挖到一個 CVSS 8.8 的漏洞,不當輸入驗證導致程式碼注入。

嚴重到什麼程度?CISA 已經把它加進 Known Exploited Vulnerabilities(KEV)目錄——意思是這不是理論上的風險,是有人正在拿它打你的系統。

ActiveMQ 在企業裡的部署量很大。很多 Java 專案的訊息佇列還在跑 ActiveMQ Classic,有些甚至是十年前架的、一直沒換掉的那種。這類系統最可怕的特性是:它們通常跑在內網、沒有人在盯、patch 週期以「季」為單位。而攻擊者知道這一點。

8.8 分的 CVSS 加上「已被積極利用」——如果你的系統有用 ActiveMQ Classic,現在就去檢查版本號。不是明天,是現在。

原文來源:CISA Known Exploited Vulnerabilities Catalog


Cybersecurity AI Framework CVE-2026-25130:資安工具自己有 RCE

最後一條,也是今天最諷刺的一條。

一個叫 Cybersecurity AI(CAI)的框架被挖出 RCE 漏洞。原因?使用者輸入直接傳給 subprocess.Popen()shell=True

這是指令注入。最基本的那種。寫在每一本資安入門教科書第三章的那種。出現在一個標榜自己是「Cybersecurity AI」的框架裡。

笑死,但笑不出來。

shell=True 加上未經驗證的使用者輸入,等於你把系統的 shell 直接開給外面。任何人都可以在你的 server 上執行任意指令。這不是什麼新奇的攻擊向量——這是 2005 年就該知道的東西。

這裡的系統性訊號是:AI 工具鏈的安全品質跟不上部署速度。大家急著把 AI 套件裝上去、把 AI agent 跑起來,但這些工具本身的程式碼品質誰在審?一個掛著「Cybersecurity」名字的框架都能犯這種錯,那些沒掛資安標籤的 AI 工具呢?

踩坑的人不會是工具的開發者。踩坑的人是信任這個工具、把它部署到自己環境裡的你。

原文來源:CVE-2026-25130 | SentinelOne


今天這五條新聞看起來主題分散——開源策略、IDE 產品、協定標準、傳統漏洞、AI 工具安全。但底下有一條共同的張力線:速度與脆弱性的耦合

Meta 花三年建開源生態,然後急轉彎閉源——跟隨者的架構因此暴露在供應鏈風險裡。Cursor 的 Design Mode 讓改 UI 變得無摩擦——但無摩擦也代表犯錯的成本趨近於零。MCP 兩個月成長 70%——但成長越快,攻擊面擴張的速度也越快。ActiveMQ 的漏洞被積極利用——因為沒有人覺得十年前的訊息佇列需要關注。Cybersecurity AI 框架自己有 RCE——因為大家太急著交付「AI」這兩個字。

不要問「這些變化是好是壞」。那是觀眾的問題。決策者該問的是:在這個加速的環境裡,我的系統裡有哪些假設已經不再成立?

Meta 會繼續開源 Llama——這個假設不成立了。ActiveMQ Classic 在內網很安全——不成立了。掛著 Cybersecurity 標籤的工具品質有保證——不成立了。

找出你的隱性假設。那是風險真正住的地方。