AI 應用

AI 找到了人類藏了 27 年的漏洞:當人工智慧同時成為資安最大威脅與最強防線

2026.04.10 · 144 次瀏覽
AI 找到了人類藏了 27 年的漏洞:當人工智慧同時成為資安最大威脅與最強防線

從 Anthropic Project Glasswing 到 AI Agent 攻擊激增 340%,2026 年的資訊安全正在被重新定義

2026 年 4 月 7 日,Anthropic 正式發布了一項名為 Project Glasswing 的計畫,在資安圈投下了一顆震撼彈。這個計畫的核心是一個尚未公開發布的前沿模型——Claude Mythos Preview,專門用於偵測與修補關鍵軟體中的安全漏洞。而它的成績單令人震驚:已經在所有主流作業系統和主流瀏覽器中發現了數千個高嚴重性的零日漏洞。


其中最令人驚訝的發現,包括一個隱藏在 OpenBSD 中長達 27 年的弱點,攻擊者可以利用它遠端癱瘓系統;以及一個存在於廣泛使用的 FFmpeg 影音處理軟體中長達 16 年的漏洞,這段程式碼已經被執行了數百萬次,卻從未被任何人類安全研究員發現。AI 在幾週內完成了人類數十年未能完成的事。


這個計畫的規模同樣令人印象深刻。包括 AWS、Apple、Google、Microsoft、NVIDIA、CrowdStrike、Palo Alto Networks 和 JPMorgan Chase 在內的 12 家頂級組織加入了創始合作夥伴行列。Anthropic 本身投入了一億美元的模型使用額度。但最引人注目的決定是:他們不打算公開發布 Claude Mythos Preview。因為這個模型的能力已經超越了大多數人類安全研究員,公開發布可能帶來比解決更多的問題。


然而,就在 AI 展現強大防禦能力的同時,另一面的威脅也在急速升級。


AI Agent 的攻擊面正在爆炸性擴張


2026 年的數據顯示,Prompt Injection 攻擊同比激增了 340%。更令人擔憂的是,攻擊的性質正在根本性地改變。過去,大多數攻擊是「直接注入」——使用者直接輸入惡意提示。但現在,超過 80% 的攻擊都是「間接注入」——攻擊者將惡意指令嵌入在電子郵件、文件、網頁或資料庫內容中,等待 AI Agent 在執行任務時讀取並執行這些指令。


一項研究顯示,單一一封被投毒的電子郵件就能在高達 80% 的測試中成功誘騙 AI 模型執行惡意 Python 程式碼,竊取 SSH 金鑰。而對 30 個主流 AI Agent 框架的系統性審計更揭露了一個驚人事實:93% 的框架使用未限定範圍的 API 金鑰,0% 具備每個 Agent 的獨立身份機制,97% 缺乏使用者同意機制。


這意味著什麼?當企業平均運行 12 個 AI Agent,且其中一半完全獨立運作時,每一個 Agent 都可能是一個潛在的攻擊入口。2025 年,與 AI 相關的資安事件已經造成超過 44 億美元的全球損失。


對開發者與產業的啟示


身為一個長期關注 AI 與開發技術的人,我認為 Project Glasswing 揭示的不只是 AI 的能力,更是一個產業層級的典範轉移。


過去,資安是一個依賴人類經驗與直覺的領域。最好的滲透測試工程師需要數十年的經驗累積,才能在數百萬行程式碼中發現隱藏的弱點。現在,AI 模型不僅能做到相同的事情,而且速度快了幾個數量級,還能發現人類忽略了數十年的問題。


但這也帶來了一個深刻的矛盾:同樣的技術力量,既能被用來保護系統,也能被用來攻破系統。Anthropic 選擇不公開 Claude Mythos Preview,正是因為他們深刻理解這個雙刃劍的本質。這可能是 AI 產業史上第一次,一家公司因為自己的產品「太強」而主動限制發布。


對於我們這些做網頁開發、寫 API、管理資料庫的人來說,啟示很明確:AI Agent 時代的資安,不能再用傳統的方式來思考。你的 API 金鑰管理、你的 Agent 權限設計、你的資料存取策略,都需要被重新審視。不是因為你的程式碼寫得不好,而是因為遊戲規則已經改變了。


2026 年的資安故事,不再只是人類對抗駭客。它是 AI 對抗 AI,而我們作為開發者,站在中間,決定天平往哪邊傾斜。