AI 與科技新聞摘要 - 2026/04/29
47%。
將近一半的企業 AI 用戶,曾經根據模型幻覺出來的內容做了重大商業決策。不是「參考了一下」,是實際影響了資源分配、策略方向、甚至客戶承諾的那種決策。
這個數字來自 Deloitte 的企業 AI 調查。而 ICLR 2026 剛發表的一篇論文解釋了為什麼這個問題會越來越嚴重:訓練模型推理得越深,它幻覺工具呼叫的頻率反而越高。
同一週,一家幫水電工接電話的 AI 公司拿到 $1B 估值;96% 的企業說自己在跑 AI agent,但 94% 承認根本管不住;歐盟把 AI 高風險系統的執法時間再延後一年半;GitHub 悄悄把 Copilot 的「coding agent」改名叫「cloud agent」。
每一條都在說同一件事:速度比治理快。而差距還在拉大。
ICLR 2026:推理越強,工具幻覺越多
這篇論文的發現很反直覺:讓模型「想更久」,反而讓它更容易幻覺出不存在的工具呼叫。
機制大概是這樣。當你訓練一個模型做更深層的推理——chain-of-thought 更長、reasoning 步驟更多——模型的行為會變得更像「有主見的助手」。它不再被動等你問問題,而是主動規劃接下來的步驟、決定該呼叫哪些工具。問題來了:主動性越高,它「發明」不存在工具的機率也越高。
把這個跟 Deloitte 的 47% 放在一起看:企業端正在大規模部署 AI agent 做決策支援。這些 agent 的賣點就是「更聰明的推理能力」。而更聰明的推理帶來的副產品是更有信心的幻覺——模型不是亂猜,而是用一條看起來很合理的推理鏈得出一個完全不存在的結論。
這比隨機的胡說八道危險多了。隨機的錯誤你會懷疑。有推理過程的錯誤你會相信。
怎樣做一定會在 AI agent 上栽跟頭?把推理能力當成可靠性的代理指標。模型「想得多」不代表「想得對」——這兩件事的相關性比大多數人以為的低很多。
原文來源:AI News Digest, April 29, 2026: The AI Agent Hallucination Trap In Smarter Models
Avoca 估值 $1B:水電工的 AI 語音助手
$1B。一家幫水電工、冷氣師傅、搬家公司接電話的 AI 新創。
Avoca 在 4 月 27 日宣布完成累計 $125M+ 的融資,橫跨 Seed、Series A 和 Series B。B 輪由 Meritech Capital 和 General Catalyst 領投,A 輪是 Kleiner Perkins,種子輪有 Y Combinator。
它做什麼?接電話。但不是客服中心那種。
Avoca 的 AI 語音 agent 直接串進 HVAC、水電維修、汽車保養、搬家公司的 CRM 系統。客戶打來,agent 幾秒內接起、問診、排程、下單——全程不需要人。公司說今年預計透過 AI agent 代訂 $1B 營業額的服務工單。
這裡真正有意思的不是技術。是市場。
過去三年 AI 的故事主要發生在兩個地方:科技公司和大企業。工程師用 Copilot 寫 code,Fortune 500 用 LLM 做客戶分析。但 HVAC 師傅?水電行老闆?搬家公司?這些人從來不覺得自己是「AI 買家」。
Avoca 做的是把 AI agent 賣給從來沒想過自己需要 AI 的人。而且不是賣「AI 技術」——是賣「你不用再漏接電話了」。垂直化到一個行業的工作流裡、用那個行業聽得懂的語言包裝——這是 AI 商業化的下一波。不是更聰明的模型,是更窄的應用。
原文來源:Avoca Raises $125M+ at $1B Valuation to Power America’s Services Economy With AI
OutSystems 調查:96% 企業跑 AI Agent,94% 擔心失控
96% 和 94%。
96% 的企業已經在跑 AI agent。94% 的企業擔心 AI 蔓延正在增加複雜度、技術債和安全風險。
OutSystems 在 2026 年初調查了將近 1,900 名 IT 領導者。數字的細節其實不重要——重要的是「幾乎全部在用」和「幾乎全部在怕」這兩件事同時成立。
再看另一個數字:只有 12% 的組織有集中管理平台來管理他們的 AI agent。
翻譯一下:88% 的企業讓 AI agent 散佈在各個部門、各個團隊、各個用途裡,沒有統一的可見性、沒有一致的治理政策、沒有人能回答「我們現在到底跑了幾個 agent、它們在做什麼、誰有權限動它們」。
這就是 shadow IT 的 AI 版本。十年前,各部門偷偷買 SaaS 工具,IT 部門不知道。現在,各部門偷偷跑 AI agent,IT 部門知道但管不住。
從失敗的角度想:怎樣做一定會讓 AI 部署爆炸?讓每個團隊自己搞自己的 agent,不設共用平台,不做權限控制,不追蹤 agent 的行為 log。聽起來像在描述什麼?就是 88% 企業目前的狀態。
原文來源:Agentic AI Goes Mainstream in the Enterprise, but 94% Raise Concern About Sprawl
EU AI Act 三方協議:高風險系統執法再延期
歐盟把 AI Act 的高風險系統執法時間往後推了。
4 月 28 日的三方協議(trilogue)投票結果:獨立高風險 AI 系統的合規期限從原本的 2026 年 8 月延到 2027 年 12 月 2 日。嵌入式 AI 產品(整合在已受規管產品裡的 AI 元件)更晚,2028 年 8 月 2 日。
原因?產業準備不及。
這有點諷刺。歐盟花了三年設計全球最完整的 AI 監管框架,結果企業需要更多時間來遵守。一部分原因是 AI 的發展速度超過立法者的預期——2023 年起草的分類標準,拿來套 2026 年的 AI agent 生態,很多定義已經跟不上了。另一部分原因更根本:合規基礎設施——風險評估工具、技術標準、認證機制——根本還沒準備好。
從系統性的角度看,這裡有一個反饋循環:監管延期 → 企業繼續在模糊地帶部署 AI → 等到規則真的上路時,既有的部署量已經大到「強制合規」的成本高得嚇人 → 監管再次妥協。
延期不等於取消。但每延期一次,企業就多一年在灰色地帶跑。等到 2027 年 12 月真的到了,這批「灰色地帶部署」的遷移成本會讓所有人頭痛。
GitHub Copilot CLI v1.0.39:悄悄從「Coding Agent」改名「Cloud Agent」
4 月 28 日,GitHub 釋出 Copilot CLI v1.0.39。表面上是一堆功能更新:新增 ACP(Agent Communication Protocol)client 的 allow-all permission toggle,加了 /compact、/context、/usage、/env 四個新 slash commands。
但真正值得注意的是一個看似瑣碎的改動:usage metrics API 裡,used_copilot_coding_agent 欄位被換成了 used_copilot_cloud_agent。
「Coding Agent」變成「Cloud Agent」。
名字的改變通常反映定位的改變。「Coding Agent」的定位很明確——幫你寫 code。「Cloud Agent」的範圍大得多——它暗示這個 agent 不只寫 code,它在雲端有自己的環境、可以執行任務、可以跟其他服務互動。
這跟 Kiro CLI 2.0 推出 headless 模式、Claude Code 推出 Managed Agents 是同一個方向:AI coding 工具正在從「坐在你旁邊的助手」變成「跑在某個地方的自主節點」。
新的 slash commands 也暗示了這個轉變。/compact 壓縮對話上下文、/context 管理 context window、/usage 追蹤用量、/env 管理環境變數——這些都是「長期運行的 agent」才需要的功能,不是「坐下來跟你對話的助手」需要的。
一個小小的欄位名改變。有時候名字比功能更能說明方向。
今天這五條新聞有一個共同的底層結構:能力跑在治理前面的系統,正在逼近臨界點。
ICLR 的論文告訴你,模型越強,幻覺的形式越隱蔽——不是亂猜,是有理有據地猜錯。Avoca 告訴你,AI agent 已經從科技公司擴散到水電行——採用曲線的尾端正在被打開。OutSystems 告訴你,96% 都在跑但只有 12% 管得住。歐盟告訴你,連最積極的監管者都承認追不上。GitHub 告訴你,工具廠商已經在為「agent 常駐雲端」的未來改名了。
能力增長 → 採用加速 → 治理跟不上 → 風險累積在看不見的地方。
這不是新的模式。金融衍生品在 2008 年之前也是這樣——產品創新跑在監管前面,每個人都知道有風險,但沒有人停下來。不是因為不知道,是因為停下來的人會被甩在後面。
差別在於:金融衍生品的爆炸半徑主要在金融系統裡。AI agent 的爆炸半徑在你的業務流程、你的客戶資料、你的決策品質裡。
不要問「我該不該用 AI agent」——這個問題的答案已經是 96% 的企業替你回答了。該問的是:我的 agent 做了什麼我不知道的事?
如果你答不出來,你就是那 88%。







