AI 與科技新聞摘要 - 2026/05/06
負七天。
不是「漏洞被發現後七天內被利用」——是漏洞被利用的時間點,比修補程式釋出還早七天。攻擊者在你知道門壞了之前,就已經走進來了。
Mandiant 的 M-Trends 2026 報告把這個數字攤在所有人面前。45 萬小時的事件回應數據,結論是:補丁的概念正在過期。你以為防禦是「發現漏洞 → 安裝修補 → 安全」的線性流程。現實是攻擊者跑得比修補快,而且每年都更快。
同一天,Cerebras 準備以 266 億美金估值 IPO,挑戰 NVIDIA 的 AI 晶片霸權。鴻海的 AI 伺服器營收首度超越 iPhone。Anthropic 開放 Claude Security 讓企業掃描程式碼漏洞。GPT-5.5 在英國 AISI 的安全測試裡反超了被限制存取的 Mythos。
速度是這五條新聞的共同語言。問題是,加速的不只是建設——攻擊也在加速。
Cerebras IPO:266 億美金估值,AI 晶片市場終於有人敢舉手
35 億美金。這是 Cerebras 打算在這次 IPO 募集的金額——2026 年到目前為止最大的科技 IPO。
Cerebras 的晶片跟 NVIDIA 走完全不同的路。NVIDIA 的 GPU 是一顆一顆組成叢集,靠高速互連把算力疊上去。Cerebras 的 WSE-3(Wafer Scale Engine)是一整片晶圓就是一顆晶片——850,000 個核心、44GB 的 on-chip SRAM,不需要跨晶片通訊。
換句話說,NVIDIA 解決的問題是「怎麼把很多小晶片連起來」,Cerebras 解決的問題是「為什麼要連」。
2,800 萬股,每股 $115 到 $125。高端估值 266 億美金。銀行收到的認購意向已經超過 100 億——是募集額度的三倍。顯然市場認為 NVIDIA 需要一個真正的對手。
OpenAI 是 Cerebras 的重要合作夥伴。這層關係讓 Cerebras 在 AI 推論市場有了一個其他晶片新創夢寐以求的背書。但也帶來一個問題:如果你的最大客戶同時也是你最大的單點風險,你的護城河到底是技術還是關係?
逆向想一下:怎樣做 Cerebras 一定會失敗?答案是 NVIDIA 的 CUDA 生態系繼續壟斷軟體層。晶片再快,開發者不願意重寫程式碼就沒用。Cerebras 押的賭注是 AI 推論市場大到足以讓客戶願意為了效能和成本跳出 CUDA。266 億的估值在問一個問題:這個賭注成立嗎?
原文來源:AI chipmaker Cerebras targets $3.5 billion raise in IPO — CNBC
原文來源:Cerebras Systems Eyes $3.5B in Largest Tech IPO of 2026 — The AI Insider
原文來源:Cerebras files for $3.5 billion IPO at a $26.6 billion valuation — SiliconANGLE
鴻海四月營收破紀錄:AI 伺服器正式超越 iPhone
新台幣 8,321 億。鴻海四月單月營收,年增 29.7%,創下歷史新高。
但數字本身不是重點。重點是結構性的翻轉。
鴻海的「雲端與網通產品」事業群(AI 伺服器所在的部門)在 2025 年佔總營收 40%,首度超越消費性電子(iPhone 組裝為主)的 38%。這家靠組裝 iPhone 起家的公司,現在的營收引擎是 AI 伺服器機架。
這個翻轉的意義不只是鴻海自己的財報好看。它是整個硬體供應鏈的風向球。
鴻海、緯創、廣達——台灣三大代工廠——2026 年合計 AI 伺服器營收預估突破兆元台幣。這些公司同時在做的事情是:搶 NVIDIA GB200 的組裝訂單、擴建液冷伺服器產線、在美國和墨西哥蓋新廠。
AI 基礎設施的錢不是「計劃投入」的階段了,是已經在製造端變成營收的階段。Mag-7 上季合計 6,500 億美金 capex 的錢,正在變成鴻海的營收、Cerebras 的 IPO 估值、和你辦公室裡那台 AI 伺服器的散熱風扇聲。
不過,29.7% 的年增率隱含一個假設:AI 伺服器的需求會持續以這個速度成長。如果——只是如果——AI capex 在 2027 年開始減速(因為 ROI 驗證不如預期),鴻海轉型的故事就會從「成長引擎切換」變成「過度集中在單一客戶群」。台灣三大代工廠同時 all-in AI 伺服器,集中度風險不小。
原文來源:Foxconn revenue nears US$95B in first four months, AI server racks fuel 2Q26 outlook — Digitimes
原文來源:Foxconn April revenue hits NT$832.1 billion — Taiwan News
Mandiant M-Trends 2026:漏洞被利用的速度比修補快七天
45 萬小時的事件回應。這是 Google Mandiant 過去一年在全球處理的資安事件總時數。M-Trends 是他們的年度報告——資安產業最接近「戰場日誌」的東西。
2026 年報告的核心發現讓整個防禦模型都要重新想。
漏洞利用的平均時間差是負七天。 不是「修補後七天被利用」,是「修補前七天就被利用了」。意思是:攻擊者在零日漏洞被公開之前就已經有 exploit。你的修補流程再快都沒用——因為修補還沒出來。
28.3% 的 CVE 在公開後 24 小時內被利用。 接近三成。你的 IT 團隊收到漏洞通知、評估影響、測試修補、部署到正式環境——這個流程通常要幾天到幾週。攻擊者只需要幾個小時。
初始存取的交接時間縮短到 22 秒。 攻擊者入侵一台機器後,22 秒內就把存取權交給下一個攻擊階段(通常是勒索軟體或資料竊取)。從手動操作變成自動化流水線。
最常被打的是什麼?VPN、防火牆、路由器——那些坐在網路邊界的設備。它們通常韌體過時、難以用傳統工具監控、而且一旦被打穿就等於直接進入內網。
Mandiant 的報告有一句話寫得很直白:「依賴設備廠商及時釋出修補,不是策略,是希望。」
這份報告在說的不是「駭客變厲害了」這種老生常談。它在說的是:防禦端的基本假設——「先發現、再修補、就安全」——已經不成立了。 攻擊端的速度優勢是結構性的,不是偶發性的。
原文來源:M-Trends 2026: Data, Insights, and Strategies From the Frontlines — Google Cloud Blog
原文來源:M-Trends 2026: Initial Access Handoff Shrinks From Hours to 22 Seconds — SecurityWeek
原文來源:Attackers are handing off access in 22 seconds, Mandiant finds — Help Net Security
Claude Security 公測:Anthropic 讓 AI 幫企業抓漏洞
Anthropic 正式開放 Claude Security 的 public beta。
Claude Security 不是一個獨立產品,是直接整合在 claude.ai 裡的功能——Enterprise 方案的使用者可以在側邊欄或 claude.ai/security 啟動掃描。指定 GitHub repo、branch、掃描範圍(可以鎖定特定目錄),選擇 Standard 或 Extended 深度,按下去就跑了。
跟 Snyk 或 SonarQube 不一樣的地方在於:Claude Security 不是靠 pattern matching 抓漏洞。它用 Opus 4.7 的推理能力追蹤資料流、跨檔案分析上下文、辨識邏輯層級的漏洞。傳統掃描器看到 user_input 進了 sql_query 會標紅。Claude Security 看的是:這個 user_input 經過了哪些函式、有沒有在中間被消毒、如果沒消毒的話攻擊路徑是什麼。
每個發現都會附上信心指數、嚴重等級、影響分析、重現步驟、以及修補建議。使用者可以直接在 Claude Code 裡打開修補建議,在程式碼上下文中處理。
更有意思的是整合。Claude Security 的掃描結果可以透過 webhook 送到 Slack、Jira、或任何 ticketing 系統。也可以匯出成 CSV 或 Markdown 丟進稽核流程。CrowdStrike、Microsoft Security、Palo Alto Networks、SentinelOne、Wiz 都已經整合了 Opus 4.7 的能力。
不過,有個結構性的問題值得想。Claude Security 用 AI 模型分析程式碼——但 AI 模型本身也有幻覺。如果模型「看到」了一個不存在的漏洞,而你的資安團隊因為「AI 說有」就花了半天去追查,這個成本怎麼算?Anthropic 的解法是加了一層「對抗性驗證」——Claude 會先自我挑戰自己的發現,通過內部辯論的才會呈現。但這終究是用 AI 驗證 AI。
原文來源:Claude Security is now in public beta — Claude Blog
原文來源:Claude Security enters public beta with Opus 4.7 vulnerability scanning — Help Net Security
原文來源:Anthropic Rolls Out Claude Security for AI Vulnerability Scanning — Infosecurity Magazine
GPT-5.5 vs Mythos:AISI 測試反超,限制存取的邏輯在動搖
71.4% 對 68.6%。
英國 AI 安全研究所(AISI)用 95 個挑戰測試了 GPT-5.5 和 Claude Mythos Preview 在資安能力上的表現。在最高難度的「Expert」等級,GPT-5.5 拿了 71.4%,Mythos 拿了 68.6%。
這個結果直接動搖了 Mythos 限制存取的論述基礎。
Anthropic 在發布 Mythos 的時候,特別強調它的資安能力「太強了」——可以在每個主流作業系統和瀏覽器上自主找到高危漏洞——所以必須限制存取,只開放給經過審核的安全研究人員。這是 AI 安全領域的一個標誌性決定:第一次有商業模型因為「太危險」而被自家公司限制。
現在 AISI 的數據說:OpenAI 的公開模型已經超越了 Anthropic 限制的模型。如果 GPT-5.5 能做到 Mythos 能做的事,而且分數更高,那限制 Mythos 的存取是在保護什麼?
AISI 的報告結論寫得很直白:「這些資安能力是長程自主性、推理能力和程式碼能力的副產品,不是刻意訓練出來的。」意思是——你不需要專門訓練一個「駭客模型」。只要模型夠聰明、夠會寫程式、夠能自主操作,它就自然具備發現和利用漏洞的能力。
這對所有 frontier lab 的安全策略都是挑戰。限制一個模型的存取不能阻止另一個同等能力的模型被公開使用。安全不在於鎖住某一個模型,在於整個生態系的防禦能力能不能跟上。
原文來源:AISI benchmark shows GPT-5.5 matches Mythos on expert cyber tasks — AISI
五條新聞,一個加速曲線。
Cerebras 的 266 億估值在加速晶片競爭。鴻海的 AI 伺服器營收在加速硬體供應鏈的轉型。Mandiant 的報告說攻擊速度在加速——而且跑贏了防禦。Claude Security 試圖用 AI 加速防禦端的回應。GPT-5.5 和 Mythos 的分數說模型能力的收斂也在加速。
所有東西都在變快。建設在加速、製造在加速、攻擊在加速、防禦在加速、模型能力在加速。
問題不在於速度本身。問題在於這些加速的速率不一樣。
攻擊端的時間差是負七天——比防禦快了至少兩週。模型能力的收斂讓「限制存取」的策略失效——你鎖住一個,另一個公開的就追上來了。硬體製造已經在變成營收,但 ROI 驗證還沒追上 capex 的速度。
歷史上每次不同系統以不同速率加速,最終都會在某個交叉點炸開。不是因為某個系統壞了,是因為它們之間的同步假設失效了。
現在的問題是:那個交叉點在哪裡?






