歐盟發布《人工智慧倫理準則》
2019-04-10

歐盟於201812月公布《人工智慧倫理準則(Ethics guidelines for trustworthy AI)草案》並廣徵意見,在彙整超過500則反饋後,獨立專家小組終在201948日發布正式版本[1]

準則針對人工智慧的應用例舉7項應滿足的關鍵需求,簡述如下:

1、個人意志與監管

          人工智慧系統應保障個人意志及基本權利,並不得減損、限制或誤導個人的自主性。

2、穩定性與安全性

          可信賴的人工智慧需要足夠安全、可靠與穩定的演算法,以在系統生命週期過程中因應任何錯誤或不一致。

3、隱私與資料治理

          個人對其資料應有完整的控制權,且不得將與該個人有關之資料用以造成該個人的損害或差別待遇。

4、透明性

          應確保人工智慧系統的可追溯性。

5、多樣性、非歧視性及公平性

          人工智慧系統應整體考量個人能力、技藝與需求,並確保可得性。

6、社會與環境助益性

          人工智慧系統應用於強化正向的社會變遷以及永續性與生態責任。

7、歸責性 

          應為人工智慧系統及其產出結果建立能確保責任與可歸責性的機制。

為利有效符合上述關鍵需求,準則中亦提出對應個別關鍵需求的評估清單(詳見準則第三章)。

歐盟執委會將在2019年夏季就準則內容啟動前導階段,由企業、公務機關或各組織等利害關係人依該準則實務操作。前導階段過後,獨立專家小組將在2020年初,依各界反饋檢視準則內就關鍵需求提出的評估清單是否合宜,並供執委會決定下一步驟。 

撰文:王慕民律師

審閱:葉奇鑫律師