台大資訊 深度學習之應用 | ADL 13.1: Fairness for Bias Mitigation 如何讓有偏見的模型更公平?

แชร์
ฝัง
  • เผยแพร่เมื่อ 24 ธ.ค. 2024

ความคิดเห็น • 4

  • @tom19860526
    @tom19860526 วันที่ผ่านมา

    30:00 投影片下標的語言 Telugu打成Telegu

  • @yungchentang
    @yungchentang 8 วันที่ผ่านมา

    針對 Bias 的部分,我很好奇要怎麼定義是 Bias 或單純預測錯誤?有沒有可能 Test Data 跟 Training Data 分佈不同,導致進行預測時會有 84% 預測成女性(根據 slides 的範例)。比如說有些做 Neural Networks Calibration 或 OOD 的研究,會關心 Logits 的狀態,來判斷這些問題。回到 slides 中的 case,有沒有可能剛好這些 Test Sample 其實模型也很不確定性別(看 logits 或其他方式等等),單純是預判錯誤?

    • @yungchentang
      @yungchentang 8 วันที่ผ่านมา

      會好奇定義來自於後面有提及說,訓練資料取 50/50 男女的範例,想說這樣取資料會不會本身就引入 Bias。(考量現實世界 cooking 的性別數量比並不是 50/50)

    • @hoho_666
      @hoho_666 3 วันที่ผ่านมา

      @@yungchentang 反向打拳?