ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
2:37 Framwork of ML訓練資料拿來訓練Model3階段1.寫出有未知數的Function,未知數為seta2.定義一個loss function3.optimization,讓loss最小,得seta*用seta*來做test data4:40 想要做的更好?看看訓練資料的loss發現loss太大→兩種可能5:41 Model Biasmodel太簡單→大海撈針但針不在海裡解決:設一個更大的model,增加model的彈性,例如增加公式的未知數、參考的資料等8:17 Optimization Issue此門課只會使用Gradient Descent,而找不到→大海撈針,撈不到10:16 Model Bias v.s. Optimization Issue56層 v.s. 20層 的測試資料,20層的loss
感謝大大幫忙畫重點~
thanks
@@ryan980053 tks
教授真的教得太好了,非常感謝您公開這些優質課程內容
真的太幸运,能看上到宏毅老师的课!我可太爱宏毅老师了!
从来没有这么清楚明白过!!感谢!分享!
真的太精彩了,謝謝老師分享
4:37 開局就送魔關羽 XDDDDDD(笑倒地
2:34諸葛村夫原來老師也有看冷淡熊
overfitting原因之一:模型弹性太大。解决方法之一:增加训练资料
請問作業也能開放讓我們這些外面來學習的同學做嗎? 謝謝
2:13 一袋米要扛幾樓 一袋米要扛二樓
46:11 想請教老師跟大家 n-fold cv 的問題我選好model 1的參數組合是最佳的 然後再把全部的training set用此參數組合去訓練那我要怎麼知道什麼時候train到最好了呢?(要train到多少iteration?)也是照model 1的iteration去停止嗎,但資料量不一樣 這樣定好像也怪怪的希望可以幫忙解惑 感謝~~
非常感谢!老师讲的太好了
教授太厲害了 我朋友黃家賢看了這個影片 大學發了5篇論文
厉害了兄弟,我也想当你的朋友
感谢教授分享!
增加灵活性可以解决model bias。比如增加神经元数目、特征数量。深度。
45:12 想請教一下教授和大家,這裡slide上的mse是指model 1,2,3 分別在三個validation set上的mse嗎?
您好,请问作业的练习资料有链接可以分享吗?
哈哈哈哈哈哈老师老二次元了
凌晨我在油管上台大。
解决方法:给模型一些限制,减少神经元数目,更少的参数,更少的特征,正则化,Dropout,Early Stopping
loser的霸主還是個loser 老師的比喻真是簡而有力
啊我还在想鲁蛇是什么,原来是loser啊哈哈哈哈
请问在哪里看这门课的作业呀
请问李老师可有作业的相关资料,想试着自己做做,提升能力😀
唯一真神
解决方法2:给模型一些限制,减少神经元数目,更少的参数
教授您好,有個問題想請教一下在optimization issue的部分您講到,如果較深的network比較淺的network表現差那是optimization issue,但在overfitting的部分,您說可以使用較少參數的模型來改善overfitting 所以意思是說,模型的層數只受限於optimization的能力,但每一層的neuron數過多可能會造成overfitting嗎?
應該是說,再深的 model 都可以比淺的 model 表現的好,至少是持平,只要optimize 的好。但如果 optimize 無法解決問題,可以先把 neuron 變少,讓他更容易收斂。如果每個model 都可以 optimized,那就不用擔心 overfitting 的問題了。
請問有作業連結嗎?
02:13 幫補字幕->洗一些"諸葛村夫"
謝謝教授讓我抽到魔關羽XD
只看validation error的話也有可能會發生validation set overfitting,把validation error 和 validation test error 一致性一起考量是否更好?
test set在训练过程中应该始终不可见,理论上不应该根据test set的任何信息进行调参,就只用你觉得最好的model在test set上跑一次作为最终结果 (personal view)
老师说的n折交叉验证,是否可以解决validation set overfitting的情况呢?
请问在哪里能看直播呐~
作业在哪里能找到啊
抱歉 我真的找不到老師的HW 請問有大大可以提供一下HW位置嗎? 我去老師的網站翻也找不到Q
一袋米要扛几楼,一袋米要抗七楼
26:53 Less feature 是指降低模型的參數量嗎?
feature应该是输入的数据量吧(个人理解),减少输入的数据。比如预测观看人数的时候,不用前56天,改用前28天之类的
聲音有點小
请问李老师,有没有助教的作业视频?
从经验看 应该会有 多关注课程主页吧
為什麼用較少的feature可以處理overfitting的問題呢?
可以这样想,用更多的feature 可以制作出更为复杂的函数,那么他会过度学习training data, 甚至一些没必要的杂讯也学了起来,这样在testing data 万一没这些杂讯就会提高错误率。从数学的角度想的话你用很多feature 制作出来的function 知只适合那个training dataset
神
解决方法2:给模型一些限制
请问老师,在哪可以看到作业呀online
上面有不是?
@@GoodEnough030 上面那个不是slides吗 有的话 能不能求分享一下
brilliant!
喜欢
謝謝教授雖然我看不懂 : (
4:49
2:37 Framwork of ML
訓練資料拿來訓練Model
3階段
1.寫出有未知數的Function,未知數為seta
2.定義一個loss function
3.optimization,讓loss最小,得seta*
用seta*來做test data
4:40 想要做的更好?
看看訓練資料的loss
發現loss太大→兩種可能
5:41 Model Bias
model太簡單→大海撈針但針不在海裡
解決:設一個更大的model,增加model的彈性,例如增加公式的未知數、參考的資料等
8:17 Optimization Issue
此門課只會使用Gradient Descent,而找不到→大海撈針,撈不到
10:16 Model Bias v.s. Optimization Issue
56層 v.s. 20層 的測試資料,20層的loss
感謝大大幫忙畫重點~
thanks
@@ryan980053 tks
教授真的教得太好了,非常感謝您公開這些優質課程內容
真的太幸运,能看上到宏毅老师的课!我可太爱宏毅老师了!
从来没有这么清楚明白过!!感谢!分享!
真的太精彩了,謝謝老師分享
4:37 開局就送魔關羽 XDDDDDD
(笑倒地
2:34諸葛村夫原來老師也有看冷淡熊
overfitting原因之一:模型弹性太大。解决方法之一:增加训练资料
請問作業也能開放讓我們這些外面來學習的同學做嗎? 謝謝
2:13 一袋米要扛幾樓 一袋米要扛二樓
46:11 想請教老師跟大家 n-fold cv 的問題
我選好model 1的參數組合是最佳的 然後再把全部的training set用此參數組合去訓練
那我要怎麼知道什麼時候train到最好了呢?(要train到多少iteration?)
也是照model 1的iteration去停止嗎,但資料量不一樣 這樣定好像也怪怪的
希望可以幫忙解惑 感謝~~
非常感谢!老师讲的太好了
教授太厲害了 我朋友黃家賢看了這個影片 大學發了5篇論文
厉害了兄弟,我也想当你的朋友
感谢教授分享!
增加灵活性可以解决model bias。比如增加神经元数目、特征数量。深度。
45:12 想請教一下教授和大家,這裡slide上的mse是指model 1,2,3 分別在三個validation set上的mse嗎?
您好,请问作业的练习资料有链接可以分享吗?
哈哈哈哈哈哈老师老二次元了
凌晨我在油管上台大。
解决方法:给模型一些限制,减少神经元数目,更少的参数,更少的特征,正则化,Dropout,Early Stopping
loser的霸主還是個loser 老師的比喻真是簡而有力
啊我还在想鲁蛇是什么,原来是loser啊哈哈哈哈
请问在哪里看这门课的作业呀
请问李老师可有作业的相关资料,想试着自己做做,提升能力😀
唯一真神
解决方法2:给模型一些限制,减少神经元数目,更少的参数
教授您好,有個問題想請教一下
在optimization issue的部分您講到,如果較深的network比較淺的network表現差那是optimization issue,但在overfitting的部分,您說可以使用較少參數的模型來改善overfitting
所以意思是說,模型的層數只受限於optimization的能力,但每一層的neuron數過多可能會造成overfitting嗎?
應該是說,再深的 model 都可以比淺的 model 表現的好,至少是持平,只要optimize 的好。但如果 optimize 無法解決問題,可以先把 neuron 變少,讓他更容易收斂。如果每個model 都可以 optimized,那就不用擔心 overfitting 的問題了。
請問有作業連結嗎?
02:13 幫補字幕->洗一些"諸葛村夫"
謝謝教授讓我抽到魔關羽XD
只看validation error的話也有可能會發生validation set overfitting,把validation error 和 validation test error 一致性一起考量是否更好?
test set在训练过程中应该始终不可见,理论上不应该根据test set的任何信息进行调参,就只用你觉得最好的model在test set上跑一次作为最终结果 (personal view)
老师说的n折交叉验证,是否可以解决validation set overfitting的情况呢?
请问在哪里能看直播呐~
作业在哪里能找到啊
抱歉 我真的找不到老師的HW 請問有大大可以提供一下HW位置嗎? 我去老師的網站翻也找不到Q
一袋米要扛几楼,一袋米要抗七楼
26:53 Less feature 是指降低模型的參數量嗎?
feature应该是输入的数据量吧(个人理解),减少输入的数据。比如预测观看人数的时候,不用前56天,改用前28天之类的
聲音有點小
请问李老师,有没有助教的作业视频?
从经验看 应该会有 多关注课程主页吧
為什麼用較少的feature可以處理overfitting的問題呢?
可以这样想,用更多的feature 可以制作出更为复杂的函数,那么他会过度学习training data, 甚至一些没必要的杂讯也学了起来,这样在testing data 万一没这些杂讯就会提高错误率。从数学的角度想的话你用很多feature 制作出来的function 知只适合那个training dataset
神
解决方法2:给模型一些限制
请问老师,在哪可以看到作业呀online
上面有不是?
@@GoodEnough030 上面那个不是slides吗 有的话 能不能求分享一下
brilliant!
喜欢
謝謝教授雖然我看不懂 : (
4:49