歐盟發布《人工智慧倫理準則》
2019-04-10
歐盟於2018年12月公布《人工智慧倫理準則(Ethics guidelines for trustworthy AI)草案》並廣徵意見,在彙整超過500則反饋後,獨立專家小組終在2019年4月8日發布正式版本 [1]。
準則針對人工智慧的應用例舉7項應滿足的關鍵需求,簡述如下:
- 個人意志與監管
- 人工智慧系統應保障個人意志及基本權利,並不得減損、限制或誤導個人的自主性。
- 穩定性與安全性
- 可信賴的人工智慧需要足夠安全、可靠與穩定的演算法,以在系統生命週期過程中因應任何錯誤或不一致。
- 隱私與資料治理
- 個人對其資料應有完整的控制權,且不得將與該個人有關之資料用以造成該個人的損害或差別待遇。
- 透明性
- 應確保人工智慧系統的可追溯性。
- 多樣性、非歧視性及公平性
- 人工智慧系統應整體考量個人能力、技藝與需求,並確保可得性。
- 社會與環境助益性
- 人工智慧系統應用於強化正向的社會變遷以及永續性與生態責任。
- 歸責性
- 應為人工智慧系統及其產出結果建立能確保責任與可歸責性的機制。
為利有效符合上述關鍵需求,準則中亦提出對應個別關鍵需求的評估清單(詳見準則第三章)。
歐盟執委會將在2019年夏季就準則內容啟動前導階段,由企業、公務機關或各組織等利害關係人依該準則實務操作。前導階段過後,獨立專家小組將在2020年初,依各界反饋檢視準則內就關鍵需求提出的評估清單是否合宜,並供執委會決定下一步驟。
撰文:王慕民律師
審閱:葉奇鑫律師