$1.1B。

這不是某家獨角獸的 Series D,不是某個收購案的溢價——這是一筆 Seed Round。史上最大的種子輪。

拿到這筆錢的人叫 David Silver。你可能不認識這個名字,但你一定知道他的作品:AlphaGo、AlphaZero——那個不需要人類棋譜就自學成為地球最強棋手的 AI。

Silver 離開 DeepMind 創了 Ineffable Intelligence,拿了 Sequoia、Lightspeed、NVIDIA、Google 的錢。他要做的事只有一件:造一個完全不依賴人類數據的 AI

同一週,KKR 砸了 $100 億請前 AWS CEO 來蓋 AI 電廠。Google DeepMind 用一個「香蕉」模型打趴了所有專用視覺 AI。Cursor 被挖出一個 clone repo 就能 RCE 的漏洞。微軟的 AI Agent 框架被證實可以被完全劫持。

今天這五條新聞的共同結構:每個人都在加速蓋樓,但地基的裂縫正在同步擴大


Ineffable Intelligence:AlphaGo 之父拿 $1.1B 賭強化學習

所有人都在堆人類數據訓練 LLM。Silver 說這條路是死胡同。

4 月 27 日,Ineffable Intelligence 以 $5.1B 估值完成 $1.1B 種子輪——有史以來最大的 Seed Round。Sequoia Capital 和 Lightspeed Venture Partners 領投,Google、NVIDIA、Index Ventures、英國主權 AI 基金跟投。

Silver 的論文很簡單:AlphaZero 不看任何人類棋譜,只靠強化學習(reinforcement learning)自我對弈,就打敗了所有人類棋手和所有吃人類數據長大的 AI。他在 DeepMind 花了十年證明這件事。現在他要把同一套邏輯從圍棋推廣到通用智慧。

Ineffable 要造的東西叫「superlearner」——一個透過試錯而非模仿人類來學習的系統。

$1.1B 的種子輪。這筆錢的規模本身就是一個訊號:頂級投資人開始對沖 LLM 路線的風險。過去三年,絕大多數 AI 投資流向「更大的模型、更多的人類數據」。Silver 的錢流向完全相反的方向——不要人類數據,用環境回饋自己學。

換一個角度問:如果 LLM 路線真的是唯一的路,為什麼 Sequoia 要拿 $1.1B 賭另一條?不是因為他們確定 Silver 會贏,是因為他們不確定 LLM 會贏。

最有意思的細節:Silver 承諾把 Ineffable 股權賺到的每一分錢全部捐出去,透過 Founders Pledge。造出不依賴人類數據的 AI,然後把收益全部回饋人類。這個結構本身就很反脆弱——如果成功了,受益的不只是股東。

原文來源:DeepMind’s David Silver just raised $1.1B to build an AI that learns without human data — TechCrunch
原文來源:Ex-DeepMind David Silver raises $1.1 billion for AI startup Ineffable — CNBC
原文來源:Ineffable Intelligence launches with record-breaking $1.1B Seed round — Tech.eu


KKR Helix Digital Infrastructure:前 AWS CEO 帶隊蓋 AI 電廠

$100 億美金。不是投資 AI 模型,不是投資 AI 應用,是投資 AI 的

4 月 30 日,KKR 宣布成立 Helix Digital Infrastructure——一家從零開始、專門為 AI 蓋實體基礎設施的公司。資料中心、發電廠、輸電線路、冷卻系統、網路連接,全包。CEO 是前 AWS 老闆 Adam Selipsky。

Helix 的商業模式跟傳統資料中心公司不一樣。傳統模式是「我蓋好了你來租」。Helix 是「我幫你蓋,你簽長約,從土地到電力到機櫃全部由我搞定」。白話說:hyperscaler 不用再把所有基礎設施放在自己的資產負債表上,可以外包給 Helix,鎖定產能,降低雙邊風險。

為什麼需要一家專門做這件事的公司?因為 AI 基礎設施的瓶頸不是晶片,是電。一個大型 AI 資料中心的用電量等於一座小城市。蓋一個資料中心需要 2-3 年,但拿到電力供應許可可能需要 5-7 年。Helix 的價值在於它同時擁有資料中心和發電設施——垂直整合從電子到電力的整條鏈。

分析師預測,到 2030 年,全球 AI 基礎設施的累計投資將超過 $1 兆美元。

$1 兆。這個數字夠大,大到讓人忘記問一個問題:如果 AI 的需求曲線不是指數而是 S 型呢?資料中心蓋了就蓋了,發電廠建了就建了。這些不是可以退貨的 GPU——這是混凝土和變壓器。

前天 Mag-7 四家合計宣布 $3,000 億的年度 capex。今天 KKR 再加 $100 億。每一筆都是單向賭注,每一筆都押在同一個假設上:AI 的需求只會更多,永遠不會少。

歷史上每次「需求只會更多」的集體共識,後面都接著一個詞:供過於求。不是說一定會發生,是說沒有人在認真討論這個可能性。而沒有人討論的風險,通常是最大的風險。

原文來源:KKR launches $10B AI infrastructure startup Helix, taps ex-AWS CEO Adam Selipsky to lead — Tech Startups
原文來源:Helix Digital Infrastructure Launches With $10 Billion Backing From KKR — Bloomberg


Vision Banana:一組權重打贏所有專用視覺模型

一個模型。一組權重。三個任務都拿第一。

Google DeepMind 在 4 月 25 日丟出一篇論文,標題翻譯過來是:「圖像生成器就是通才視覺學習器」。模型名字叫 Vision Banana——是的,香蕉。

論文的核心發現很反直覺:把一個圖像生成模型(Nano Banana Pro)拿來做 instruction tuning,加一小撮視覺任務數據微調之後,它在語義分割、深度估計、表面法線估計三個任務上都打贏了專門設計的模型——包括 Meta 的 SAM 3 和 Depth Anything V3。

一個模型做三件事,每件都比專門做那件事的模型強。

這裡面有一個很深的洞察。傳統的電腦視覺做法是每個任務訓練一個專用模型——分割用分割模型,深度用深度模型,法線用法線模型。Vision Banana 證明了一件事:圖像生成的預訓練就像 LLM 的預訓練——它逼模型學會了通用的視覺理解能力。生成和理解不是兩回事,是同一回事的兩面。

論文作者包括何愷明和謝賽寧——前者是 ResNet 的發明者,後者是 ConvNeXt 的核心作者。這不是一篇普通的投稿。

怎樣在這波視覺 AI 裡一定會輸?繼續投資只能做一件事的專用模型。SAM 3 花了多少研究資源只為了做分割,結果被一個「順便」做分割的通才模型打敗。專用模型的護城河在消失——不是慢慢消失,是一篇論文就消失。

Vision Banana 目前還是研究階段,沒有公開 API。但底層的 Nano Banana Pro 已經在 Gemini API 和 AI Studio 上線。從研究到產品化的距離,在 Google 手裡,通常不超過兩個季度。

原文來源:Google DeepMind Introduces Vision Banana — MarkTechPost
原文來源:Image Generators are Generalist Vision Learners — Google DeepMind
原文來源:Vision Banana Explained — DataCamp


Cursor CVE-2026-26268:Clone 一個 Repo 就被 RCE

上週 PocketOS 的故事是 AI agent 自己闖禍。這週的故事更恐怖——別人讓你的 AI agent 闖禍。

CVE-2026-26268,高嚴重性漏洞。攻擊方式很簡單:你 clone 一個惡意 repo,Cursor 讀取 repo 裡的設定檔,攻擊者的程式碼就在你的本機執行了。

不需要你點任何東西。不需要你執行任何指令。Clone 就夠了。

Cursor 是目前最多開發者使用的 AI 編輯器之一,年化營收 $2B,Anysphere 估值 $60B。每天有數以百萬計的開發者用它 clone repo、開 PR、review code。現在想像一下:一個攻擊者在 GitHub 上放一個看起來很正常的開源專案,裡面藏了利用這個漏洞的 payload。你因為好奇 clone 下來看看,game over。

這跟 PocketOS 事件形成了一個恐怖的組合。PocketOS 告訴你:AI agent 會用你給它的所有權限做你沒預期的事。CVE-2026-26268 告訴你:攻擊者可以透過你正常的工作流程(clone repo)來觸發 AI agent 做惡意的事。

兩個故事加起來的訊息是:AI agent 的攻擊面不只是 agent 本身,還包括 agent 會讀取的所有輸入。repo 的設定檔、PR 的描述、issue 的內容——每一個 agent 會「看」的地方,都是潛在的注入點。

這不是新的漏洞類別。Command injection 從 2003 年就存在。但 AI agent 把攻擊面從「你執行的指令」擴大到「agent 讀取的所有文字」。舊漏洞,新攻擊面。

原文來源:Cursor AI Coding Agent Vulnerability Allow Attackers to Execute Code on Developer’s Machine — Cybersecurity News


MS-Agent CVE-2026-2256:AI Agent 框架被劫持,整台系統淪陷

最後一條。ModelScope 的 MS-Agent 框架——用來建構 AI agent 的開源工具——被發現有一個 OS command injection 漏洞。

CVE-2026-2256。MS-Agent 有一個 Shell tool,讓 agent 可以在主機上執行系統指令。問題是:輸入沒有做消毒。攻擊者可以透過精心設計的輸入,讓 agent 執行任意 OS 指令。

拿到的東西包括:API key、token、設定檔、workspace 裡的所有檔案。可以做的事包括:在主機上放 payload、建立持久化後門、橫向移動到內部服務。

這跟 Cursor 的漏洞是同一個結構的不同層級。Cursor 的漏洞在 IDE 層——攻擊者透過 repo 設定檔注入。MS-Agent 的漏洞在 framework 層——攻擊者透過 agent 的輸入注入。層級不同,結果一樣:你以為 AI agent 在幫你工作,它其實在幫攻擊者工作

這裡有一個讓人不舒服的趨勢。PraisonAI(CVSS 9.8)、Langflow(CVSS 9.8)、n8n(CVSS 10.0)、CAI Framework(RCE)、現在加上 MS-Agent 和 Cursor。過去三個月,幾乎每週都有一個 AI agent 框架或工具被挖出高危漏洞。

不是偶發事件。是結構性問題。

AI agent 框架的設計哲學是「讓 AI 能做更多事」。每加一個能力(Shell access、file access、network access),就多開一扇門。安全的做法是每扇門都上鎖、每個輸入都驗證。但框架的競爭壓力是「比對手多一個功能」,不是「比對手多一道鎖」。功能贏了市場,安全輸了時間。

原文來源:Vulnerability in MS-Agent AI Framework Can Allow Full System Compromise — SecurityWeek
原文來源:MS-Agent Vulnerability Let Attackers Hijack AI Agent to Gain Full System Control — Cybersecurity News


今天這五條新聞拉在一起看,結構很清楚:AI 產業正在同時往三個方向衝刺,而這三個方向彼此矛盾

第一個方向是規模。KKR 的 $100 億蓋電廠,Mag-7 的 $3,000 億買 GPU,Silver 的 $1.1B 賭強化學習。錢的規模在加速。

第二個方向是通用化。Vision Banana 用一組權重做三件事打敗三個專用模型。Silver 想造不靠人類數據的通用學習器。每個人都在追求「一個模型做所有事」。

第三個方向是攻擊面。Cursor clone 一個 repo 就被 RCE。MS-Agent 的 Shell tool 可以被劫持。每個新功能都是新的入口點。

規模越大,通用化程度越高,攻擊面就越廣。一個通用 agent 能做的事越多,被劫持後造成的傷害就越大。一個被 $100 億基礎設施支撐的系統,崩潰時的衝擊也被 $100 億放大。

沒有人在做的事是:停下來算一算,這三個方向交叉的地方,風險的乘數效應是多少。

每個人都在回答「要怎麼贏」。沒有人在回答「如果輸了會怎樣」。而那通常是最重要的問題。