專案會議上,PM 丟出一個新的 AI 特徵需求,我下意識地問:「這個會不會違反 AI 基本法?」會議室安靜了三秒。一年前,沒人會這樣問。

台灣的《人工智慧基本法》在去年 12 月三讀通過,於今年正式上路。身為一個在科技圈摸爬滾打多年的工程師,我發現自己的日常工作開始被一個全新的東西主宰——不再只是演算法效率和系統架構,還要考慮「法規風險等級」。

台灣終於有了自己的 AI 基本法

說真的,一開始聽到「基本法」這個詞有點 OO——感覺像是什麼憲法級的東西。但看下去才明白,這其實是台灣首部專門針對 AI 的立法,定義了七項核心原則:人權保障、隱私保護、問責性、透明可解釋性……等等。更實際的是,政府底下成立了「人工智慧策略委員會」,數位發展部(MODA)會負責建立 AI 風險分類框架。

這有多重要?簡單說,未來公司採購 AI 服務時,第一個問題可能就不是「效能夠不夠快」,而是「這個工具是第幾級風險」。

政府也跟著投錢——2026 年編了 180 億台幣預算,重點砸在五個「可信任產業」:半導體、AI、國防、資安、次世代通訊。這份清單有意思——台灣的優勢產業都被圈進去了。

歐盟 AI 法 vs 台灣基本法:軟硬之別

關鍵轉折點在於比較歐盟。

歐盟的 AI 法(EU AI Act)今年 8 月就要開始對「高風險」應用強制執法。人臉辨識、徵才演算法、信用評分、教育評量……這些全部都列為高風險。只要不符合歐盟規格?罰款 3500 萬歐元或全球營業額的 7%——哪個比較大就罰哪個。每個歐盟成員國還要建立 AI 監管沙盒,芬蘭早就在 2025 年 12 月率先啟動完整執法了。

台灣的策略完全不同。基本法採用「原則導向」框架,比較像是定義遊戲規則和精神,而不是逐項列舉「什麼東西絕對禁止」。簡單講,歐盟是處方簽,台灣是指南針。

這各有好壞。歐盟的好處是明確——開發者知道界線在哪,「不要碰」就行。但缺點是僵化,得等法律更新才能適應新的風險型態。台灣的原則導向比較靈活,但執行的時候就考驗監管機關和業界的默契了。說實話,我有點擔心這會不會最後淪為「紙上談兵」。

工程師每天會面對的變化

讓我扯回實務層面。

首先,招聘會變得有趣。公司開始需要懂「法規 + 治理 + 技術」的混合型人才。不是只會寫 Python 的工程師,而是能夠評估自己寫的程式碼可能觸及哪些法規風險的人。這個市場缺口會慢慢浮現。

再者,AI 工具的選型會改變。目前我們採購 AI 服務或套件時,考量點大多是精準度、延遲和成本。未來多半要加上「風險分類級別」這一項。低風險工具可以大膽用,高風險工具可能得層層審批,甚至某些組織根本用不了。

第三,台灣在這個位置有點尷尬。我們是全球 AI 晶片和計算力的主要供應方(TSMC、台灣的 GPU 代工……),卻還在討論「應該怎麼管 AI」。這不是什麼高深的觀察,但確實諷刺——造硬體的人比用軟體的人更懂 AI,結果軟體政策反而更先進。

「可信任」的定義,決定一切

政府標籤出五個「可信任產業」而不是「其他產業」,這本身就說了一個故事。意思是,如果你在做的東西不在這五個框框裡,AI 治理會有不同的標準。

這裡面還有個隱形的議題:資料中心電力。台灣的供電一直是個話題(缺電冬馬甲),AI 算力的爆炸成長需要龐大的電力支撐。這個基本法通過了,但電力配套有沒有跟上?這是另一個故事。

最後想說的是

我不會天真地認為一部基本法會立刻改變什麼。真正的轉折點是「執行」——監管機關、業界、學術界要好好溝通,確保這套框架是可運作的,而不是變成另一份沒人讀的政府文件。

但從好的角度想,台灣至少開始了對話。我們不再只是「科技跟進者」,而是在試著定義自己的遊戲規則。對一個靠科技吃飯的國家來說,這很重要。

下次開會時,如果 PM 又提新的 AI 特徵,我還是會問那一句話。但這一次,大概會有更多人思考背後的原因,而不是一片沉默。


參考來源:立法院三讀通過《人工智慧基本法》 - 數位發展部
參考來源:台灣AI治理新紀元 - 台灣人工智慧學校
參考來源:EU AI Act 2026 Updates - Legal Nodes