演算法公平性

Algorithmic Fairness

演算法對不同群體公平

詳細解釋

演算法公平性(Algorithmic Fairness)是確保算法決策不對特定群體產生系統性歧視的原則和實踐,涵蓋技術、法律和社會多個維度。

公平性概念:

  • 個人公平:相似個體應得相似對待
  • 群體公平:不同群體的統計結果應相等
  • 機會公平:努力的回報應相等
  • 社會公平:算法不應加劇社會不平等

技術實現:

  • 公平性指標:
  • 人口統計均等:陽性率相等
  • 機會均等:真陽性率相等
  • 預測均等:假陽性率相等
  • 校準:預測概率在各群體中真實陽性率相同
  • 公平性約束:
  • 預處理:調整數據消除偏見
  • 處理中:訓練時加入公平性約束
  • 後處理:調整決策閾值達到公平指標
  • 公平性工具:
  • Fairlearn(Microsoft)
  • AI Fairness 360(IBM)
  • Aequitas:偏見審計工具包

社會維度:

  • 歷史背景:算法可能學習歷史歧視
  • 結構性不平等:社會結構性問題的反映
  • 權力關係:誰定義什麼是「公平」
  • 多元價值:不同群體對公平有不同理解

應用領域:

  • 招聘:確保性別、種族不影響篩選
  • 信用評分:避免對特定地區的歧視
  • 刑事司法:預測性警務的偏見控制
  • 醫療:確保各群體診斷準確率一致
  • 教育:自適應學習系統的資源分配

法律框架:

  • 歐盟AI法案:高風險AI的歧視禁止
  • 美國民權法:就業、住房、信貸的反歧視
  • 算法問責法案:影響評估要求

挑戰:

  • 公平性不可兼得:多個公平指標通常互斥
  • 準確性vs公平性:追求公平可能降低整體性能
  • 定義權力:誰決定什麼是公平
  • 動態性:社會對公平的認識在演變
  • 測量困難:隱性偏見難以量化

演算法公平性是負責任AI的核心支柱。

探索更多AI詞彙

查看所有分類,繼續學習AI知識