AI 與科技新聞摘要 - 2026/04/29
47%。 將近一半的企業 AI 用戶,曾經根據模型幻覺出來的內容做了重大商業決策。不是「參考了一下」,是實際影響了資源分配、策略方向、甚至客戶承諾的那種決策。 這個數字來自 Deloitte 的企業 AI 調查。而 ICLR 2026 剛發表的一篇論文解釋了為什麼這個問題會越來越嚴重:訓練模型推理得越深,它幻覺工具呼叫的頻率反而越高。 同一週,一家幫水電工接電話的 AI 公司拿到 $1B 估值;96% 的企業說自己在跑 AI agent,但 94% 承認根本管不住;歐盟把 AI 高風險系統的執法時間再延後一年半;GitHub 悄悄把 Copilot 的「coding agent」改名叫「cloud agent」。 每一條都在說同一件事:速度比治理快。而差距還在拉大。 ICLR 2026:推理越強,工具幻覺越多這篇論文的發現很反直覺:讓模型「想更久」,反而讓它更容易幻覺出不存在的工具呼叫。 機制大概是這樣。當你訓練一個模型做更深層的推理——chain-of-thought 更長、reasoning 步驟更多——模型的行為會變得更像「有主見的助手」。它不再被動等你問問題,而是主動規...
Claude Code IDE Extensions 完整教學 — 讓 AI 住進你的 VS Code 和 JetBrains
你有個很厲害的翻譯朋友。每次遇到外文文件,你把檔案打包寄給他,等他翻完寄回來,你再打開來看。溝通效率還行,但每次都要「切出去→等→切回來」,一天下來光是 context switch 就消耗掉不少腦力。 現在這個朋友搬來跟你同住了。你看到不懂的段落,手指一比,他立刻在旁邊解釋。你改了一版草稿,他直接在你的螢幕上標出建議。不用寄信、不用等、不用切視窗。 Claude Code 的 IDE Extensions 做的就是這件事。 先搞懂一件事:CLI 跟 Extension 不是二選一很多人以為裝了 VS Code extension 就不需要 CLI,或者反過來。不是這樣。 CLI 是完整版的 Claude Code。所有指令、所有功能、所有設定,CLI 都有。Extension 是 CLI 的圖形化包裝——它把最常用的功能搬進 IDE 的介面,讓你不用離開編輯器就能操作。但有些進階指令(像 ! bash 捷徑、tab 補全)目前只有 CLI 能跑。 好消息是:兩邊共用同一份對話歷史和設定檔。你在 extension 裡跟 Claude 聊到一半,打開終端機用 claude --...
Coolify — 把自家 VPS 變成 Heroku / Vercel 的 self-hosted PaaS
大部分工程師買 VPS 的原因是省錢。但最後花掉最多的不是機器費用——是搞定部署流程的時間。 你租了一台 Hetzner,每個月 20 歐元,規格比 Vercel Pro 方案能跑的東西多三倍。然後你花了一整個週末在上面裝 Nginx、搞 Let’s Encrypt、寫 Docker Compose、把 GitHub webhook 接到某個不知道從 Stack Overflow 抄來的 deploy script。跑起來了,但你從此再也不敢動那台機器的任何設定。 問題不是 VPS 太難用。問題是從「一台空機器」到「推 code 就自動上線」這段路,沒有人幫你走。 Coolify 做的就是這段路。 一行裝完,然後呢1curl -fsSL https://cdn.coollabs.io/coolify/install.sh | sudo bash 跑完這行,打開 http://your-server-ip:8000,你會看到一個設定畫面。第一個註冊的帳號自動變 admin。 它背後做了什麼?裝 Docker、產 SSH key、拉起一組 container——Coolify 的...
Elasticsearch 快速上手與環境建置 — Hello Elastic
你去過 Costco 嗎?100 萬件商品堆在倉庫裡,你要找一瓶特定的醬油。 用 MySQL 的 LIKE '%醬油%' 來找,等於從第一排貨架開始一排一排翻。Costco 那個面積,翻完天都黑了。但如果門口站了一個超級管理員,他記住了每個字出現在哪些商品上——你說「醬油」,他毫秒級回你:「C7 排第三層、D2 排第一層。」 Elasticsearch 就是那個超級管理員。底層用 Apache Lucene 的倒排索引(Inverted Index),把「每個詞 → 出現在哪些文件」這件事預先算好。搜尋的時候不是遍歷,是查表。 這是為什麼它快。快不是魔法,是資料結構。 從搜食譜到紐約上市ES 的起源是一段聽起來不太正經的故事。2004 年,Shay Banon 的老婆在學做菜,他想幫她建一個食譜搜尋工具。於是寫了 Compass——一個 Lucene 的 Java 封裝。 六年後他把 Compass 整個重寫,2010 年以 Elasticsearch 的名字開源。2012 年成立公司,2018 年在紐約證交所上市,股票代碼 ESTC。 中間幾個關鍵版本轉折: ...
AI 與科技新聞摘要 - 2026/04/28
閉源。Meta 決定把新模型鎖起來——這家公司花了三年建立開源生態,然後在一個早上放棄了。 Muse Spark 是 Meta 第一個閉源 AI 模型,由 Alexandr Wang 帶領的 Superintelligence Labs 開發。同一週,Cursor 3.0 推出 Design Mode 讓你用手指直接點 UI 元素改 code,年化營收衝到 $2B。Microsoft 把 MCP 整合正式塞進企業級 Fabric 平台,月下載量兩個月內從 97M 漲到 164M。 而在另一面,Apache ActiveMQ 的漏洞被列入 CISA 已知被利用目錄,一個標榜「Cybersecurity AI」的框架自己被挖出最基本的指令注入 RCE。 建設的速度在加快。崩壞的方式也在進化。 Meta Muse Spark:三年開源信仰,一夕翻盤4 月 8 日,Meta 發布了 Muse Spark。 這是一個原生多模態推理模型,支援工具使用、視覺推理鏈、多 agent 協作。性能在 GPT-5.4 和 Claude Sonnet 4.6 的區間,不算頂尖但也沒有掉隊。它已經部署在...
MCP Server 開發入門教學 — 用 Python 從零打造 AI 工具連接器
你家一定有 USB 轉接頭。Type-C 轉 HDMI、Lightning 轉 3.5mm、各種奇奇怪怪的接頭。轉接頭本身不做任何事,它只是讓兩個本來講不同語言的東西能接上。螢幕不需要知道你的筆電是什麼牌子,筆電也不需要知道螢幕的解析度怎麼設定 — 轉接頭搞定一切。 MCP(Model Context Protocol)就是 AI 世界的 USB 轉接頭。 Anthropic 開發了這個開放協定,現在已經捐給 Linux Foundation AAIF。它讓 AI model 連接外部工具和資料來源,不管是資料庫、API、檔案系統,接上就能用。目前生態系已經長到 164M 月下載量、超過 2,400 個 server,Microsoft、GitHub、Cloudflare、Stripe 都在用。Claude Code、Cursor、Kiro 這些 AI coding 工具也全部支援。 這不是什麼還在實驗階段的新玩意。這已經是事實標準了。 MCP 的三個核心原語在寫 code 之前,先搞懂 MCP 的三個核心概念。我用遙控器來比喻: Tools(工具) — 遙控器上的按鈕。按下「計...
RTK — 讓 Claude Code 少燒 80% Token 的 Rust 壓縮代理
你以為 token 是被 AI 的思考燒掉的。其實不是。 跑一個長時間的 Claude Code 會話,打開帳單看一下,你會發現大部分 token 花在「讀」而不是「想」。更精確地說,花在讀 shell 吐回來的那坨東西——git diff 的路徑前綴、pytest 的進度條、docker logs 的時間戳、一堆空行跟重複行。這些資訊對 LLM 來說毫無意義,但每一個字元都在燒你的錢。 118k token 的會話,真正有用的資訊大概只有 24k。 剩下的 94k 是噪音。 RTK 在幹嘛RTK(Rust Token Killer)是一個用 Rust 寫的 CLI 代理層,架在 Claude Code 跟你的 shell 之間。想像一下你家水管接了一個濾水器——水還是會流過去,但泥沙會被擋住。RTK 就是那個濾水器,只是它過濾的不是泥沙,是 token。 每次 Claude Code 要執行 shell 指令,RTK 會先攔截輸出,用針對特定指令的壓縮模組把冗餘資訊砍掉,只留下 LLM 真正需要的部分,再傳回 context window。壓縮率大概在 60-90%,取決於指令...
168 斷食工程師實戰 — 為什麼寫 Code 的人特別適合間歇性斷食
下午兩點,午餐後的血糖高峰。你盯著螢幕上的 stack trace,同一行看了三遍,腦袋像灌了水泥。 這個場景每天都在上演。不是你不夠努力,是你的身體正在拿所有的能量去消化那碗滷肉飯。 Reddit 的 r/Biohackers 最近有一串討論特別有意思:有人問「斷食最大的好處是什麼?」,底下的回覆不是講減肥,是講專注力。一個軟體工程師在 Dev.to 上寫了一篇長文,說他開始 168 斷食之後,上午的 coding session 從平均專注 45 分鐘拉長到 2 小時不中斷。 這引起了我的好奇:為什麼「不吃東西」反而讓大腦跑得更快? 先講機制,不然聽起來像邪教168 斷食就是一天 24 小時裡,16 小時不吃東西,8 小時內把三餐吃完。 聽起來很極端,但其實大部分人本來就在做 12 小時的斷食——晚餐到隔天早餐的時間。168 只是把早餐往後推到中午而已。 身體在斷食狀態下會發生幾件事。第一,血糖穩定下來。吃東西會讓血糖飆高然後掉下來(那個掉下來的時段就是你想睡覺的時候)。不吃東西,血糖就像一條平的線,沒有雲霄飛車。 第二,大約斷食 12-14 小時後,身體開始燒脂...
Claude Code Multi-Model 混用策略 — Haiku / Sonnet / Opus 怎麼搭才省錢又有效
你的 Claude Code session 裡,每一次工具呼叫都用 Opus。讀一個 5 行的 config 檔?Opus。跑一個 ls 指令?Opus。改一個 typo?還是 Opus。 這就像叫一個年薪千萬的 CTO 去影印文件。他當然做得到,但你的預算會先陣亡。 Claude Code 其實內建了三種模型可以切換——Haiku、Sonnet、Opus。差異不只是「聰明程度」,是整個成本結構不同。Haiku 的 token 價格大概是 Opus 的十分之一,但處理日常任務的能力有 Sonnet 九成水準。 關鍵不是「哪個模型最好」,而是「哪個任務配哪個模型最划算」。 三種模型像三種員工先用一個類比把基本概念打通。 想像你開了一間軟體公司,有三種角色可以指派任務: Haiku 是剛畢業的工程師。 速度快、成本低、日常任務處理得不錯。寫個腳本、跑個指令、讀個檔案回報內容——這些事交給他完全沒問題。但你不會讓他做架構決策。 Sonnet 是資深工程師。 寫 code 品質穩定,能處理中等複雜度的 bug,理解上下文的能力強。大部分日常開發工作交給他就對了。 Opus 是技術長。...
Lightpanda — 專為 AI Agent 打造的輕量級 Headless Browser
你的 headless Chrome 每開一個 tab 吃掉 300 MB RAM。十幾個同時跑,OOM killer 就來敲門了。 這件事荒謬的地方在於:你根本不需要一個「瀏覽器」。你需要的是 DOM 樹、JavaScript 引擎、還有網路請求能力。螢幕渲染、GPU 合成、真皮座椅級的 Web API——這些東西在 headless 模式下全是死重。 Lightpanda 就是把這個死重砍乾淨的產物。GitHub 上 26,000 顆星,用 Zig 從零寫的 headless browser,記憶體是 Chrome 的十六分之一,速度快九倍。 它不是「更輕的 Chrome」。它是一台只剩引擎和輪子的車。 為什麼不「改良」headless Chrome 就好想像你要搬家。你需要一台貨車。但你手上只有一台全配的賓士 S-Class——真皮座椅、Burmester 音響、12 吋螢幕儀表板,全都佔空間。你當然可以把後座拆了硬塞箱子進去,但不管怎麼拆,底盤設計就不是給載貨用的。 headless Chrome 就是那台拆了座椅的 S-Class。 它的架構天生就是多進程的:每個 t...









