在當今數位化的時代,人工智慧(AI)已經成為企業營運和市場競爭的關鍵。然而,隨著AI技術的快速發展和廣泛應用,其帶來的風險和挑戰也日益顯著。根據PwC US《2024負責任AI調查》顯示,高階主管越來越意識到,負責任的人工智慧實踐對於企業的投資報酬率至關重要,46%的高階主管表示,使他們的企業、產品和服務與眾不同是他們投資負責任的AI實踐的三大目標之一。
2025 年,企業領導者將無法再以不一致的方式處理 AI 治理問題。隨著人工智慧成為營運和市場產品不可或缺的一部分,企業需要建立系統化、透明的方法來確認其人工智慧投資的持續價值,同時管理大規模部署AI的風險。在醫療領域,一些 AI軟體被設計用於通過手機應用程式幫助醫生診斷黑色素瘤,但研究發現這些軟體經常會漏診黑色素瘤,而將圖片發送給皮膚科醫生的應用程式雖然幫助很大,但失敗率仍然不小。這說明在 AI 技術的部署過程中,風險管理和驗證至關重要。
要實施釋放價值的人工智慧監督,企業需要另一個獨立的視角。這可能來自於已提升技能的內部稽核團隊,或者根據領先實務和標準進行評估的第三方專家。無論如何實現,從2025 年開始,對 AI 治理和控制的獨立觀點都將相當重要。正如PwC人工智慧審計主管(AI Assurance Leader)珍妮佛(Jennifer Kosar)所言:「成功的人工智慧治理將不僅僅取決於風險的緩解,還取決於戰略目標的實現和強勁的投資報酬率。」
以人才招聘為例,AI招聘軟體被用於篩選應徵人選、進行面試評估等。例如,HireVue、Hiretual 等工具透過分析應徵者的影片和行為數據來評估錄取與否。然而,這些工具在數據準確性和算法控制方面可能存在問題,導致不公平的徵才結果。因此企業在使用 AI 技術時,需要進行嚴格的評估和監督,以確保其符合負責任的 AI 實現。
展望未來,人工智慧監管方法將推動持續創新。雖然各國法規繼續保持靈活,從而促進人工智慧技術和部署的快速發展,但企業仍需關注政府法規的變化,這些規則發展迅速,可能會產生有時相互矛盾的規定,PwC觀察美國目前的整體監管環境,仍是全球最有利於人工智慧創新。
為了應對這些挑戰,企業需要採取以下行動:
負責任的人工智慧實踐不僅是企業應對風險和挑戰的必要手段,更是實現高投資報酬率和戰略目標的關鍵。這需要全面的風險評估,利用標準化的AI風險分類法來涵蓋模型偏見、數據隱私、安全性等方面。此外,建立獨立且持續的監督機制是關鍵,這可透過內部專業團隊或外部專家進行驗證。不同產業需考量特定的監管和合規挑戰,並密切關注法律環境的變化,以便在全球監管框架下保持創新。透過這些措施,企業能夠有效管理AI風險,保持競爭優勢並贏得市場信任。