ithome
Google推出機器學習公平性量測工具以評估模型偏見
文/李建興 | 2019-12-15發表
Google發布了Fairness Indicators工具,可針對二元和多類別分類(Classification)
進行運算與視覺化,幫助機器學習開發團隊,評估與修正模型所存在的偏差。
產業界與學術界大量地使用機器學習技術解決問題,但是機器學習演算法和資料集,可能
同時反映且強化了偏差。Google提到,偏差有可能出現在機器學習工作管線的任何部分,
從資料集到模型的表示,甚至是將結果呈現給終端使用者的方式都不例外。
而為了檢測機器學習存在的偏差,針對單一用戶或是用戶群的評估非常重要,Google強調
,因為總體指標可以掩蓋某些群組不良的狀況,這些群組包括敏感的特徵群體,像是種族
、性別、國籍、收入、性傾向、能力和宗教信仰。
Google的人工智慧原則其中一項,是要避免造成或是加強不公平的偏見,他們也持續在這
領域耕耘,現在並於TensorFlow World大會發布了Fairness Indicators工具。Fairness
Indicators可運算並視覺化像是誤報率等常用的分類模型公平性指標,還能計算信賴區間
,以多個閾值進行評估。在使用者介面上,使用者可以切換基準群組並調查不同指標的效
能,也可為自己的使用案例,增加自定義的視覺化指標。
Fairness Indicators可以用來產生透明性報告指標,以幫助開發人員更負責地調校模型
,Google表示,公平性的顧慮與評估會因為案例而不同,因此Fairness Indicators工具
還包含了一個互動式研究案例,提供Jigsaw毒性資料產生的意外偏差,說明使用
Fairness Indicators檢測和修補機器學習模型偏差的方法。
Google提到,光靠指標與測量並無法讓機器學習模型實現完全的公平,這些方法僅是辨識
與解決偏差的其中一環。
https://www.ithome.com.tw/news/134834