美國參議院提出《人工智慧安全法案》 透過「AI警察」防堵資安威脅

歐盟於2024年3月13日正式通過世界首部規範人工智慧的《人工智慧法案》(Artificial Intelligence Act》,除了最初的保障著作權之外,該項法案範圍涵蓋所有人工智慧類型的應用範疇,更要求廠商訓練 AI 的過程中揭露所有訓練資料與引用來源。而在這之後,美國地區也開始有了動作,由參議員馬克華納(D-VA)和湯姆蒂利斯(Thom Tillis)提出的《人工智慧安全法案》(Secure Artificial Intelligence Act),旨在透過強制創建記錄所有人工智慧系統違規行為的資料庫,以追蹤可能引發的資安問題。

無疑的下一世代絕對是 AI 橫行的世代,不論是機器學習也好、AI 也罷,不得不說如今的 AI 訓練模型已經隨著智慧型行動裝置、筆電、伺服器等裝置應用的普及而加速成長到一般工程師無法估算的階段。相對於歐盟為《人工智慧法案》所成立的「歐盟人工智慧委員會」,針對利用人工智慧可能影響人類潛意識、導致人類身心受到傷害,或甚至影響科技執法判斷,甚至使用人工智慧進行「社會評分」並造成對某些人或團體不公平的對待進行嚴格禁止。該項法案更針對 AI 醫療做出規範,凡是會影響到人體健康、安全或基本權利的 AI,都會受到歐盟醫療相關法規所規範。

至於由參議員馬克華納(D-VA)和湯姆蒂利斯(Thom Tillis)提出的《人工智慧安全法案》則建議在美國國安局局建立「人工智慧安全中心」。該中心將主導該法案所稱的「反人工智慧」的研究,也就是學習如何反制人工智慧系統的技術,有點像是人工智慧安全警察的概念。該法案還要求美國國家標準與技術研究院(NIST)以及網路安全和基礎設施安全局創建一個人工智慧違規資料庫,包括AI 未遂事件以訓練這些「AI 警察」。

根據外媒報導,人工智慧安全是拜登政府人工智慧行政命令中的關鍵項目之一,目前這個項目大致可分「資料中毒」、「逃避攻擊」、「基於隱私的攻擊」和「濫用攻擊」等四個類別,包括指示 NIST 制定「紅隊」指導方針,所謂的「紅隊」是指開發人員故意嘗試讓人工智慧模型回應他們不應該回應的提示,並且要求人工智慧開發人員提交安全報告。至於逃避攻擊則會改變人工智慧模型研究的數據,導致模型變得混亂。

而資料中毒是指將程式碼插入人工智慧模型抓取的資料中,從而破壞模型輸出的方法,它有點類似歐盟針對著作權保護的回應,用意在防止 AI 在網路上肆意複製藝術作品的行為,畢竟某些國家對於著作權的保護私底下並不是那麼重視。

理想情況下,強大的人工智慧模型的開發人員會測試平台的安全性,並讓它們在對外公開之前進行深度的紅隊測試。

這項《安全人工智慧法案》目前還在審議階段,還未正式上線。

更多風傳媒報導