人工智慧法律系列
已開課
2021-12-17
國立政治大學
《人工智慧演算法透明性與營業秘密保護之兩難》
一、【引言人】宋皇志教授:人工智慧偏見與演算法透明義務
人工智慧技術應用層面增多,偏見問題陸續顯露,例如美國法院用以協助評估刑事罪犯再犯率的COMPAS系統預測非裔美國人未來暴力犯罪之機率較實際高出77%、非裔美國人在社群軟體的言論有更高可能性被標註為仇恨性言論。人工智慧偏見的可能來源有四:研究母體無法代表全部民眾、研究母體族群分佈不均、機器學習時對資料標註的偏誤、錯誤解讀因果關係。產官學界提出人工智慧開發者倫理原則、法律規範、研究報告等制度框架以降低偏見的產生,不過根柢上人工智慧的偏見其實映射人類自身的偏見,也因此「開放演算法」的支持者主張,演算法透明化除可以使公眾檢視是否公平無歧視外,更可能是人類反思過往認知與行為模式的契機。
二、【與談人】蕭乃沂教授
透明性是AI倫理中重要一環。在可解釋人工智慧(Explainable AI, XAI)概念逐漸發展後,演算法公開的議題廣受討論。演算法應用於司法單位量刑或假釋之審酌、求職者應徵履歷的篩選、銀行貸款的審核等等,透明性問題更顯重要。本課程從人工智慧治理框架出發,並提出應將「可解釋性」細化,亦即並非解釋與否,而是解釋什麼、如何解釋;探究所謂「公開」是公開演算法基本原理、公開參數調校規則,抑或納入更多層面的角色參與稽核,亦可採用多元利害關係人 BRiCS框架進行分析,釐清各種考量因素與公/私部門使用人工智慧演算法所應擔負的問責差異。
三、【與談人】施立成律師
AI技術應用於多種產業並導致生態巨變,在獲得便利、廣大商機與收益的同時,也產生了沉重的責任,例如人工智慧的偏見以及隨之衍生無法使民眾信任的危機。因此科技巨擘陸續提出AI倫理(AI ethics)或負責任的 AI 技術(Responsible AI, RAI)」觀念。施立成法務長以微軟為例,說明微軟主張的六大原則:公平、可靠性和安全性、隱私權和安全性、包容、透明度、問責;同時闡述如何透過提供負責任AI的工具,協助系統研發人員與資料科學家進一步瞭解、保護和控制 AI系統,期盼建構出普惠且能適用所有人的AI 系統並對其負責。
四、【Q&A】杜文苓院長、宋皇志教授、蕭乃沂教授、施立成律師
AI技術日新月異,大幅改變產業生態與大眾生活。分析處理大量數據時,人工智慧可提供快速且一致的結果;然而機器學習(Machine Learning)的模型取決於人為的建構,人工智慧所仰賴的演算法,強化了已存在的偏見,並伴隨著非預期後果之風險。本講座邀集學界、實務界專家進行對談,探究人工智慧發展下如何定規其演算法透明性。
財團法人理律文教基金會著作權所有,非經同意不得翻印轉載或以任何方式重製.
© Lee and Li Foundation., All rights reserved.
Tel: +886- 2-2760-6111 / Fax: +886-2-2756-5111
E-mail: [email protected]
Tel: +886- 2-2760-6111 / Fax:
+886-2-2756-5111
E-mail:
[email protected]