十一月 2023
隨著科技持續進化,「生成式AI」(Generative AI)強大的機器學習潛能,包括文本、圖像創作及影音產出、Chatbot聊天機器人理解、回應使用者疑問的能力,讓各產業紛紛導入相關技術;然而這些技術同樣可能成為網路犯罪的有力工具,促使各國政府針對相關風險制訂監管原則。
放眼國際,歐洲議會於今年中通過全球首部人工智慧法案(EU AI Act),要求隸屬八大範疇的AI系統須在歐盟資料庫中註冊,如生物辨識技術、重要基礎建設、教育及職業訓練、雇傭和員工管理等領域。中國大陸國家網信辦等七個部門亦聯合發布《生成式人工智慧服務管理暫行辦法》,於今年8月15日起施行,主管機關對AI服務進行檢查,可要求業者對數據來源、規模、類型、演算法等機制提供說明。美國總統拜登更於今年10月底簽署首個AI行政命令,要求大型AI系統開發商需與美國政府分享所有安全測試結果,以確保系統在公開前是安全可靠的。
臺灣方面,AI的相關監管,則從攸關大眾利益的金融業著手。金管會10月正式發布《金融業運用人工智慧(AI)之核心原則及政策》,包含六大核心原則及八大配套措施,並預訂於今年底前公布AI指引,各金融業公會可據此訂定自律規範,也顯示面對日新月異的科技及相關的隱私、資安風險,監管機關已嚴陣以待。
然而,企業端對相關資安風險的準備程度則還有不小進步空間。PwC於10月發布《全球數位信任洞察報告》(Global Digital Trust Insights 2024),針對全球71個國家或地區、共3,876名高階主管進行調查,探討企業在未來12至18個月可能遭遇的資安挑戰與機會。本報告發現,雖有高達52%的受訪企業認為未來12個月生成式AI可能導致災難性的網路攻擊,卻仍有超過四成受訪企業不了解生成式AI、虛擬與擴增實境、企業區塊鏈等新興科技,將帶來何種網路風險。
面對來勢洶洶的資安威脅,本期《資誠通訊》分享《全球數位信任洞察報告》的重點發現,盤點企業須強化的資安環節,並針對資安措施給予十項具體建議,盼協助企業面對持續演化的網路安全威脅,能夠一一拆解應對。此外,PwC Taiwan也建議,企業應採用負責任的AI,且除了安全及隱私風險外,使用生成式AI亦應考慮資料、模型和偏差風險、提示或輸入風險及來自使用者的風險。企業須保持敏銳、因應不斷變化的市場情勢,重新檢視、調整資安架構和系統,方能提升資安韌性。
封面企劃 | |
專家觀點 | |
專業焦點 | |
資誠智識 | |
法令解析與輯要 | |
影音專區 |