AI 與科技新聞摘要 - 2026/05/03
732 bytes。
一個 732 bytes 的 Python 腳本,可以在過去九年出貨的每一台 Linux 機器上拿到 root。Ubuntu、RHEL、SUSE、Amazon Linux——全部中獎。不需要特殊權限,不需要社交工程,任何 local user 跑一下就是 root。
這個漏洞叫 Copy Fail,CVE-2026-31431,CVSS 7.8。藏在 Linux kernel 的 algif_aead 模組裡,一個處理加密操作的角落,從 2017 年就存在。九年。而截至 5 月 1 日,部分主流發行版還沒修補。
同一天,Mistral 丟出 128B dense model 拿下 SWE-Bench 77.6%。Google 把 Gemini 推到 2M token context window。NVIDIA 發布了史上第一個開源量子 AI 模型。OpenAI 完成今年第七次收購,買了一家做個人理財的新創。
AI 產業正在同時擴張模型能力、應用範圍、以及——攻擊面。
CVE-2026-31431 “Copy Fail”:732 Bytes 換一個 Root
先講技術細節,因為這個漏洞的精巧程度值得每個工程師理解。
Linux kernel 有一套叫 AF_ALG 的介面,讓 userspace 的程式可以直接使用 kernel 的加密功能。algif_aead 是其中處理 AEAD(Authenticated Encryption with Associated Data)的模組。漏洞出在 authencesn 這個 crypto template 的邏輯:當你透過 splice() 系統呼叫把加密結果往外送的時候,它會寫入 page cache——但寫入的邊界檢查有問題。
攻擊者可以利用這個邏輯錯誤,精準覆蓋 kernel 記憶體中的關鍵資料結構。732 bytes 的 Python script 就夠了。unprivileged local user 直接提權到 root。
九年沒人發現。不是因為程式碼被藏起來——Linux kernel 是開源的,每一行都攤在陽光下。是因為 algif_aead 這種模組太冷門,review 的人太少,而漏洞的觸發條件太特定。冷門不代表不重要——它代表沒人在看。
732 bytes。記住這個數字。
下次有人跟你說「我們的 Linux server 很安全」,問他一個問題:你的 kernel 是什麼版本?如果是 2017 年之後編譯的,而且沒打這個 patch,那台機器的 root 只值 732 bytes。
影響範圍有多大?所有 2017 年以來的主流 Linux 發行版。企業伺服器、雲端虛擬機、容器 host、CI/CD runner——只要底層跑的是 Linux kernel,而且 algif_aead 模組有載入(大多數發行版預設啟用),就在射程範圍內。
這不是理論攻擊。exploit 已經公開。
原文來源:New Linux “Copy Fail” Vulnerability — The Hacker News
原文來源:CVE-2026-31431: Copy Fail Linux Kernel Flaw Lets Local Users Gain Root in Seconds — Sysdig
Mistral Medium 3.5:128B Dense 拿下 SWE-Bench 王座
128B 參數。不是 MoE,是 dense。256K context window。SWE-Bench Verified 77.6%。
這三個數字放在一起看,Mistral 做了一件很反直覺的事。
過去兩年,業界的主流敘事是「MoE 才是正確的 scaling 路線」——用 expert routing 讓推論成本跟啟用的參數量成正比,而不是跟總參數量成正比。Qwen3.5 用 MoE 堆到 397B 參數。DeepSeek 用 MoE。Google 的 Switch Transformer 是 MoE 的教科書。
Mistral 逆著走。128B dense,每一個 token 都過全部參數。暴力,昂貴,但結果擺在那裡:77.6% SWE-Bench Verified,超過 Devstral 2,超過 Qwen3.5 397B。一個 128B 的 dense model 打贏一個 397B 的 MoE model。
代價是什麼?推論成本。Dense model 的每個 token 都要算全部 128B 參數,而 MoE 可能只啟用其中 30-40B。Mistral 的定價已經被社群批評——跑起來比同級 MoE 貴不少。
但換一個角度:如果你的 use case 是讓 AI agent 自動修 bug、寫 code、交 PR,你在乎的不是每個 token 多花幾毛錢,你在乎的是修對的機率。77.6% vs 對手的 75%、73%,差兩三個百分點聽起來不多,但在 SWE-Bench 這種「改錯一行整個 test suite 炸掉」的 benchmark 裡,每一個百分點都是真金白銀。
真正有趣的是 Le Chat 的 Work mode。Mistral 不只是發了一個模型——它發了一整套 agentic 基礎設施。Work mode 讓 AI 做 multi-step 任務,並行呼叫 email、calendar、Jira、Slack。Vibe 支援 remote agents:你開一個 coding session,丟給雲端,非同步跑完再拉回來。
這是 Mistral 第一次認真做「模型之外」的事。以前它的定位是「歐洲的開源模型公司」,現在它在做平台。模型是引擎,Le Chat 和 Vibe 是車體。引擎再猛,沒有車體就只能在 benchmark 上跑分。
原文來源:Mistral AI Launches Remote Agents in Vibe and Mistral Medium 3.5 — Mistral AI
原文來源:Mistral AI Launches Remote Agents in Vibe and Mistral Medium 3.5 with 77.6% SWE-Bench Verified Score — MarkTechPost
Google Gemini 3.1 Ultra:2M Token 的豪賭
2M token context window。兩百萬。
目前所有公開可用模型裡最大的 context window。換算一下:大約等於 50 本中等長度的書,或者一整個中型 codebase 的全部原始碼,一次塞進去。
Google 的策略很明確——不跟你比單項能力,跟你比「能同時看多少東西」。當別人在比 SWE-Bench 分數的時候,Google 在比 context 的容量。
Gemini 3.1 Ultra 是原生多模態——從訓練第一天就同時處理 text、image、audio、video。不是先練一個語言模型再接一個視覺編碼器,是一開始就把所有模態混在一起餵。這在架構上的差異很大:後接的多模態模型永遠有「翻譯損耗」,原生多模態不需要翻譯。
新增的 sandboxed Code Execution 也值得注意。模型在對話過程中可以寫 Python、跑 Python、看結果、再修改。不是「生成程式碼讓你自己跑」,是模型自己跑完把結果交給你。踩坑過的人知道,這跟純文字生成 code 的差異有多大——模型可以即時驗證自己的輸出,而不是靠猜。
Google 還特別強調了 grounding 機制的改善——用來減少幻覺。細節沒公開太多,但方向正確:context window 越大,模型能「胡說八道但看起來很合理」的空間也越大。2M token 的 context 如果沒有好的 grounding,等於給幻覺開了一個超大的遊樂場。
2M token 有沒有真正的 use case?有。法律文件審閱、大型 codebase 分析、長影片理解、多文件交叉比對。但大多數日常任務根本用不到 2M。這更像是 Google 在展示肌肉:我能做到,你做不到。至於用戶需不需要,那是另一個問題。
不過話說回來,當初 128K context 剛出來的時候,大家也說「誰用得到」。一年後,128K 變成了標配。
NVIDIA Ising:量子 AI 的開源起手式
量子運算離你很遠?再想想。
NVIDIA 發布了 Ising——世界第一個開源量子 AI 模型家族。不是一個模型,是一組。兩個主角:
Ising Calibration:35B 參數的 VLM(Vision-Language Model),專門做量子處理器校準。量子處理器不像傳統晶片——每顆 qubit 的特性都不一樣,校準是讓量子電腦從「理論上很厲害」變成「實際上能用」的關鍵步驟。以前校準一台量子處理器要好幾天,用 Ising Calibration 可以壓縮到幾小時。
Ising Decoding:兩個小型 3D CNN(0.9M 和 1.8M 參數),做量子糾錯解碼。量子 bit 極度脆弱,隨時在出錯,糾錯解碼器是量子運算的基礎設施。Ising Decoding 比現有方案快 2.5 倍、準確度高 3 倍。
採用者名單很有意思:Academia Sinica(台灣中研院)、Harvard、Fermilab、IQM。學術機構和量子硬體公司混在一起,代表這不是純研究的玩具——有人真的要拿來用。
為什麼 NVIDIA 要開源這個?因為量子運算的瓶頸不是演算法,是工程。每台量子電腦都需要大量的校準和糾錯,這是勞力密集的苦工。把 AI 模型開源出來,讓全世界的量子實驗室都用 NVIDIA 的工具鏈,等於在量子運算的生態系裡提前卡位。
GPU 賣給 AI 訓練。AI 模型加速量子運算。量子運算的成果再回饋到下一代 AI。NVIDIA 在建一個自我強化的飛輪——而且每一段都有收費站。
這招真香。
OpenAI Acqui-hires Hiro Finance:第七次收購的訊號
2026 年才過四個月,OpenAI 已經完成第七次收購。這次買的是 Hiro Finance,一家做 AI 個人理財的新創。
單獨看這筆交易,規模不大,細節不多,不值得花太多篇幅。但放進 OpenAI 今年的收購清單裡看,pattern 就出來了。
七次收購。不是買模型團隊,不是買算力,是買垂直領域的應用公司。Hiro Finance 做的是個人理財——幫你追蹤支出、分析投資、規劃預算。這種東西 OpenAI 自己做不出來嗎?當然做得出來。但自己做要花半年摸領域知識、踩合規的坑、搞定金融數據源的授權。買一家已經踩完坑的團隊,直接把 domain expertise 吸進來,快得多。
這是 frontier lab 的集體轉向。以前的敘事是「我的模型比你強」,現在的敘事變成「我的模型能做的事比你多」。模型能力的差距在縮小——GPT-5、Claude 4、Gemini 3.1 Ultra 在核心 benchmark 上的差距越來越小。當模型本身不再是護城河,垂直整合就變成新的戰場。
逆向思考一下:如果 OpenAI 一年收購七家垂直公司,代表它認為光靠模型贏不了。而如果光靠模型贏不了,那些還在花所有資源「造更好的模型」的公司,是不是在打上一場戰爭?
另一個角度:個人理財是一個監管密度極高的領域。OpenAI 把手伸進金融,代表它準備接觸你的消費數據、投資紀錄、銀行帳戶。從一個聊天機器人到一個知道你財務狀況的 AI agent,這中間的信任門檻不是技術問題,是心理問題。你願意讓寫 code 的 AI 順便管你的錢嗎?
把今天五條新聞攤開來,三個維度同時在擴張。
模型能力:Mistral 128B dense 拿下 SWE-Bench 77.6%,Google 把 context window 推到 2M token。能力的天花板還在往上頂。
應用範圍:OpenAI 用收購把 AI 從聊天視窗推進個人理財。NVIDIA 用開源模型把 AI 推進量子運算的校準和糾錯。AI 觸及的領域從「寫程式」擴展到「管你的錢」和「校準量子處理器」。
攻擊面:一個 732 bytes 的 Python 腳本可以拿下所有 2017 年後的 Linux 機器的 root。而那些 Linux 機器上面,跑著的正是上述那些越來越強大、觸及範圍越來越廣的 AI 系統。
每多開一個維度,系統性風險不是加一個常數——是乘一個係數。模型更強 × 應用更廣 × 基礎設施的漏洞,三個維度交叉出來的風險空間,比任何單一維度都大得多。
沒有人在算這個乘法。所有人都在算自己那個維度的加法——模型又強了幾個百分點,context 又長了幾倍,又多進了一個垂直市場。但風險不是這樣運作的。風險是乘法,而乘法裡只要有一項趨近於零,整個乘積就歸零。
732 bytes。記住這個數字。因為下一個趨近於零的那一項,可能就是這麼小。










