ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
30:00 投影片下標的語言 Telugu打成Telegu
針對 Bias 的部分,我很好奇要怎麼定義是 Bias 或單純預測錯誤?有沒有可能 Test Data 跟 Training Data 分佈不同,導致進行預測時會有 84% 預測成女性(根據 slides 的範例)。比如說有些做 Neural Networks Calibration 或 OOD 的研究,會關心 Logits 的狀態,來判斷這些問題。回到 slides 中的 case,有沒有可能剛好這些 Test Sample 其實模型也很不確定性別(看 logits 或其他方式等等),單純是預判錯誤?
會好奇定義來自於後面有提及說,訓練資料取 50/50 男女的範例,想說這樣取資料會不會本身就引入 Bias。(考量現實世界 cooking 的性別數量比並不是 50/50)
@@yungchentang 反向打拳?
30:00 投影片下標的語言 Telugu打成Telegu
針對 Bias 的部分,我很好奇要怎麼定義是 Bias 或單純預測錯誤?有沒有可能 Test Data 跟 Training Data 分佈不同,導致進行預測時會有 84% 預測成女性(根據 slides 的範例)。比如說有些做 Neural Networks Calibration 或 OOD 的研究,會關心 Logits 的狀態,來判斷這些問題。回到 slides 中的 case,有沒有可能剛好這些 Test Sample 其實模型也很不確定性別(看 logits 或其他方式等等),單純是預判錯誤?
會好奇定義來自於後面有提及說,訓練資料取 50/50 男女的範例,想說這樣取資料會不會本身就引入 Bias。(考量現實世界 cooking 的性別數量比並不是 50/50)
@@yungchentang 反向打拳?