熱門文章

歐盟發布《人工智慧倫理準則》

歐盟於2018年12月公布《人工智慧倫理準則(Ethics guidelines for trustworthy AI)草案》並廣徵意見,在彙整超過500則反饋後,獨立專家小組終在201948日發布正式版本 [1]。

準則針對人工智慧的應用例舉7項應滿足的關鍵需求,簡述如下:

  1. 個人意志與監管
    • 人工智慧系統應保障個人意志及基本權利,並不得減損、限制或誤導個人的自主性。
  2. 穩定性與安全性
    • 可信賴的人工智慧需要足夠安全、可靠與穩定的演算法,以在系統生命週期過程中因應任何錯誤或不一致。
  3. 隱私與資料治理
    • 個人對其資料應有完整的控制權,且不得將與該個人有關之資料用以造成該個人的損害或差別待遇。
  4. 透明性
    • 應確保人工智慧系統的可追溯性。
  5. 多樣性、非歧視性及公平性
    • 人工智慧系統應整體考量個人能力、技藝與需求,並確保可得性。
  6. 社會與環境助益性
    • 人工智慧系統應用於強化正向的社會變遷以及永續性與生態責任。
  7. 歸責性
    • 應為人工智慧系統及其產出結果建立能確保責任與可歸責性的機制。

為利有效符合上述關鍵需求,準則中亦提出對應個別關鍵需求的評估清單(詳見準則第三章)。

歐盟執委會將在2019年夏季就準則內容啟動前導階段,由企業、公務機關或各組織等利害關係人依該準則實務操作。前導階段過後,獨立專家小組將在2020年初,依各界反饋檢視準則內就關鍵需求提出的評估清單是否合宜,並供執委會決定下一步驟。

 

撰文:王慕民律師

審閱:葉奇鑫律師

 


[1] https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=58477,最後到訪為2019年4月9日。

 

 

 

 
更多詳情請洽 達文西個資暨高科技法律事務所
service@davinci.idv.tw