詳細解釋
演算法公平性(Algorithmic Fairness)是確保算法決策不對特定群體產生系統性歧視的原則和實踐,涵蓋技術、法律和社會多個維度。
公平性概念:
- 個人公平:相似個體應得相似對待
- 群體公平:不同群體的統計結果應相等
- 機會公平:努力的回報應相等
- 社會公平:算法不應加劇社會不平等
技術實現:
- 公平性指標:
- 人口統計均等:陽性率相等
- 機會均等:真陽性率相等
- 預測均等:假陽性率相等
- 校準:預測概率在各群體中真實陽性率相同
- 公平性約束:
- 預處理:調整數據消除偏見
- 處理中:訓練時加入公平性約束
- 後處理:調整決策閾值達到公平指標
- 公平性工具:
- Fairlearn(Microsoft)
- AI Fairness 360(IBM)
- Aequitas:偏見審計工具包
社會維度:
- 歷史背景:算法可能學習歷史歧視
- 結構性不平等:社會結構性問題的反映
- 權力關係:誰定義什麼是「公平」
- 多元價值:不同群體對公平有不同理解
應用領域:
- 招聘:確保性別、種族不影響篩選
- 信用評分:避免對特定地區的歧視
- 刑事司法:預測性警務的偏見控制
- 醫療:確保各群體診斷準確率一致
- 教育:自適應學習系統的資源分配
法律框架:
- 歐盟AI法案:高風險AI的歧視禁止
- 美國民權法:就業、住房、信貸的反歧視
- 算法問責法案:影響評估要求
挑戰:
- 公平性不可兼得:多個公平指標通常互斥
- 準確性vs公平性:追求公平可能降低整體性能
- 定義權力:誰決定什麼是公平
- 動態性:社會對公平的認識在演變
- 測量困難:隱性偏見難以量化
演算法公平性是負責任AI的核心支柱。