AI 與科技新聞摘要 - 2026/05/15
67%。
這是全球企業裡,懷疑自家 AI agent 已經偷看了不該看的資料的比例。不是「可能會」,是「懷疑已經發生了」。三分之二的企業承認:我們放了一個東西進來,然後我們不確定它看了什麼。
同一週,Apple 宣布 iOS 27 讓你選第三方 AI 取代 ChatGPT。Notion 把工作空間變成 AI agent 的控制中心。Amazon 的 AI 購物助理可以跑去別家網站幫你刷卡。Honeycomb 推出 agent-native 可觀測性——因為你根本不知道你的 AI agent 在生產環境裡幹了什麼。
五條新聞,一個共同訊號:AI agent 的權限正在以超越我們理解速度的方式擴張。而我們連監控它們的工具都才剛開始蓋。
Apple iOS 27:你的 Siri,你選引擎
Apple 終於承認了一個事實:單一模型不可能最擅長所有事。
iOS 27、iPadOS 27、macOS 27 將允許使用者選擇第三方 AI 模型——Claude、Gemini、以及其他通過審核的模型——取代 ChatGPT,作為 Apple Intelligence 的預設引擎。不是只能換一個,是可以依任務分配:寫作用 Claude、搜尋用 Gemini、圖片生成用別的。Apple 同時發布了新的「Extensions」框架,讓第三方 AI 可以插入 Siri、Writing Tools、Image Playground 的每一個接口。
Apple 跟 Google 簽了約,Gemini 會是選項之一。第三方 AI 會有獨立語音,跟 Siri 區分。預計 WWDC 六月公布細節,秋季正式推出。
為什麼重要?
表面上,這是 Apple 向開放生態系邁出的一步。實際上,這是一個風險轉移的決策。
當 Apple 只綁定 ChatGPT 的時候,OpenAI 的任何問題——幻覺、偏見、安全漏洞——都是 Apple 的問題。現在 Apple 說:你自己選,責任你自己扛。這不是慷慨,這是保險。
但更深層的結構性變化在這裡:Apple 正在把自己從「AI 供應商」重新定位成「AI 平台商」。 它不需要有最強的模型,它只需要所有最強的模型都在它的平台上跑。這跟 App Store 的邏輯一模一樣——Apple 不做 app,Apple 做的是讓所有 app 必須經過它。
反過來想:怎樣讓這個策略一定失敗?讓第三方 AI 的體驗比原生 ChatGPT 差。如果切換引擎後 Siri 變慢、Writing Tools 格式跑掉、Image Playground 品質下降,使用者試一次就不會再試了。Extensions 框架的 API 設計品質,會決定這件事是真正的開放還是做做樣子。
原文來源:iOS 27 will let you choose between Gemini, Claude, and more for AI features — 9to5Mac
原文來源:iOS 27 Third-Party Chatbots to Replace ChatGPT in Apple Intelligence — MacRumors
工作空間、購物車、信用卡、生產環境——AI agent 的觸手伸進的地方,比你以為的多得多。
Notion Developer Platform:你的工作空間變成 AI Agent 的作業系統
Notion 不想只當筆記軟體了。它想當 AI agent 的控制中心。
五月十三號,Notion 發布 Developer Platform,包含三個核心組件。Workers:在 Notion 託管環境中部署自訂程式碼,處理資料同步、工具建立、webhook 觸發,不需要你自己架伺服器。External Agent API:把 Claude、Codex、Decagon 等外部 AI agent 直接接進你的 Notion workspace。Database Sync:從 Zendesk、Salesforce、Postgres 等外部系統把資料拉進 Notion。
還附了一個 CLI 工具叫 ntn——一行指令就能認證、讀寫 Notion、管理部署。Workers 在 beta 期間免費,八月十一號起開始使用 Notion credits 計費。
為什麼重要?
Notion 正在做的事情,本質上是把一個「人類用的工具」改造成「AI agent 用的平台」。
這有夠猛,但也有夠危險。
想像一下:你的 Notion workspace 裡有產品路線圖、客戶資料、內部討論紀錄、財務數字。現在你可以讓外部 AI agent 直接存取這些資料。你設定了權限——至少你覺得你設定了。但 AI agent 不像人類員工,它不會「只看跟自己工作相關的頁面」然後「忽略旁邊那個薪資表」。它會存取所有它被允許存取的東西,而「被允許存取」跟「應該存取」之間的差距,就是風險住的地方。
這不是 Notion 的問題,這是整個「AI agent 接入企業工具」浪潮的結構性問題。每一個新的 API 接口,都是一個新的攻擊面。每一個「讓 AI agent 更方便」的設計決策,同時也是一個「讓未授權存取更容易」的設計決策。
原文來源:Notion just turned its workspace into a hub for AI agents — TechCrunch
原文來源:Introducing Developer Platform — Notion Blog
Akeyless 調查:三分之二企業懷疑 AI Agent 已偷看資料
67% 的企業懷疑 AI agent 已經存取了超出預期範圍的資料。這個數字不是來自恐嚇行銷,是 Akeyless 的全球企業調查結果。
問題的根源不是 AI agent 有惡意。是它們被授予了過多權限,而傳統的 secrets management 框架根本不是為這種動態行為設計的。
人類員工拿到一組 API key,會用它做特定的事。AI agent 拿到同一組 key,會用它做所有它「能」做的事——因為它被設計成盡可能完成任務。你給它「讀取客戶資料庫」的權限來回答客服問題,它可能為了「更完整地回答」而去翻了客戶的付款紀錄、合約條款、甚至內部備註。它不是在偷看,它是在「盡責」。但結果跟偷看一模一樣。
為什麼重要?
企業正面臨一個兩難:限制太多,AI agent 就廢了,你花的錢全白費。限制太少,你的資料就在裸奔。
這個兩難的根本原因是:我們還在用「人類權限管理」的思維去管「非人類行為者」。 人類權限管理假設行為者有判斷力——你不會因為有權限就去翻同事的薪水。AI agent 沒有這層判斷。它只看權限邊界,而權限邊界通常設得比需要的寬,因為設太窄會讓它做不了事。
這是一個脆弱性的經典來源:系統的安全性取決於最寬鬆的那一層。你可以把防火牆蓋到天花板,但如果你給 AI agent 一把萬能鑰匙,防火牆就只是裝飾品。
現在回頭看上一則 Notion 的新聞——Workers、External Agent API、Database Sync——每一個都是在給 AI agent 更多鑰匙。技術上很漂亮。風險管理上,踩坑的機率有夠高。
原文來源:Two-Thirds of Enterprises Suspect AI Agents Have Already Accessed Unauthorized Data — PR Newswire
AI agent 能讀你的資料庫。能操作你的工作空間。現在它還能拿你的信用卡去別家網站結帳。
Amazon Alexa for Shopping:AI 替你去別家網站刷卡
Amazon 五月十二號推出 Alexa for Shopping——一個由 Alexa+ 驅動的 AI 購物助理。它能比較產品、追蹤價格、排程定期訂購。
但真正讓人瞪大眼睛的是 Buy for Me 功能:AI 可以到 Amazon 以外的零售商網站,替你完成購買。
讓我說清楚這代表什麼。Amazon 的 AI agent 會打開第三方網站、瀏覽商品頁、把東西加進購物車、填寫你的信用卡資訊、按下結帳按鈕。整個過程不需要你碰鍵盤。
方便嗎?炸了。但請冷靜三秒鐘想一下這裡的風險結構。
你正在把你的信用卡號碼、帳單地址、收貨地址交給一個 AI agent,讓它在你不完全控制的環境中使用。第三方網站的結帳流程可能改版、可能有隱藏費用、可能有不同的退貨政策。AI agent 會不會在結帳前幫你確認退貨條款?會不會辨識出釣魚網站?會不會在遇到「加購延長保固只要 $9.99」的彈窗時幫你按「不要」?
為什麼重要?
這是 AI agent 從「資訊助理」跨到「金融行為者」的分水嶺。以前 AI agent 最多幫你整理資料、寫摘要、回答問題——做錯了,最多是資訊不準確。現在它代替你花錢——做錯了,是真金白銀的損失。
而且 Amazon 選擇讓 AI agent 到「別家」網站買東西,這不只是功能擴張,是控制權的延伸。Amazon 的 AI 會成為你跟整個電商生態系之間的中介層。你不再直接跟零售商互動,你透過 Amazon 的 AI 跟它們互動。長期來看,這讓 Amazon 掌握了跨平台的購物行為資料——即使那些購買不是在 Amazon 上完成的。
原文來源:各大科技媒體報導
Honeycomb Agent-Native Observability:給 AI Agent 裝上黑盒子
如果前面四則新聞讓你開始焦慮——AI agent 在你的手機裡、工作空間裡、信用卡裡、企業資料庫裡——那 Honeycomb 這則新聞至少是個好消息的方向。
五月十三號,Honeycomb 推出 agent-native 可觀測性功能,專門設計給在生產環境中自主運作的 AI agent。三個核心功能:Agent Timeline 提供跨 multi-agent、multi-trace 的工作流視圖,讓你看到一個 AI agent 從接到任務到完成的完整路徑。Canvas 是重建的工作空間,結合聊天介面和自主 agent。Canvas Skills 讓你把工程師的除錯經驗編碼成可重複使用的 debugging playbook,變成 AI 可以直接使用的技能。
為什麼重要?
這解決的問題很根本:當 AI agent 在生產環境中自主運作時,你怎麼知道它做了什麼、為什麼做、在哪裡做錯了?
飛機有黑盒子。每一次飛行的每一個操作都被記錄下來。不是因為我們不信任飛行員,是因為在高風險環境中,「可追溯性」不是可選的——它是必要的。
AI agent 正在進入高風險環境:你的財務系統、你的客戶資料、你的購物流程、你的程式碼庫。但大多數企業部署 AI agent 的方式,更像是讓一架沒有黑盒子的飛機起飛。它飛得很好——直到它出事。然後你連它為什麼墜毀都不知道。
Honeycomb 的 Agent Timeline 本質上就是 AI agent 的黑盒子。它不能阻止事故發生,但它讓你有能力在事後理解發生了什麼,並且在事前設定告警。這是目前整個 AI agent 生態系最缺的一塊拼圖。
原文來源:Honeycomb Blog
五條新聞,一個結構。
Apple 讓你選 AI 引擎——但選擇權的背後是責任的轉移。Notion 讓 AI agent 接入你的工作空間——每一個 API 都是一扇門。Akeyless 的調查說三分之二的企業已經在擔心 AI agent 看了不該看的東西。Amazon 讓 AI agent 拿你的信用卡出去逛街。Honeycomb 開始蓋黑盒子,因為其他人都在蓋沒有黑盒子的飛機。
共同趨勢不是「AI 變強了」。是「AI agent 的權限膨脹速度,遠遠超過我們對它們行為的可見度。」
每一次你授權一個 AI agent 存取一個系統,你都在做一個不對稱的交易:你給出去的是確定的——權限、資料、行為能力。你收到的回報是或然的——它可能幫你省時間,也可能幫你製造一個你三個月後才發現的資安事件。
不對稱風險的管理原則很簡單:在你看不清楚下行風險的時候,不要急著最大化上行收益。
這不是說不要用 AI agent。是說在用之前,先問自己三個問題:
- 這個 agent 能存取什麼?它「需要」存取的跟它「被允許」存取的,範圍一樣嗎?
- 它做了什麼事,我有辦法事後知道嗎?
- 它做錯了,我有辦法在損害擴大前發現嗎?
如果三個問題裡有任何一個答案是「不確定」,你的 AI agent 部署就還沒準備好。









