【機器學習2021】機器學習任務攻略

แชร์
ฝัง
  • เผยแพร่เมื่อ 22 พ.ย. 2024

ความคิดเห็น • 58

  • @bu1414
    @bu1414 3 ปีที่แล้ว +215

    2:37 Framwork of ML
    訓練資料拿來訓練Model
    3階段
    1.寫出有未知數的Function,未知數為seta
    2.定義一個loss function
    3.optimization,讓loss最小,得seta*
    用seta*來做test data
    4:40 想要做的更好?
    看看訓練資料的loss
    發現loss太大→兩種可能
    5:41 Model Bias
    model太簡單→大海撈針但針不在海裡
    解決:設一個更大的model,增加model的彈性,例如增加公式的未知數、參考的資料等
    8:17 Optimization Issue
    此門課只會使用Gradient Descent,而找不到→大海撈針,撈不到
    10:16 Model Bias v.s. Optimization Issue
    56層 v.s. 20層 的測試資料,20層的loss

    • @katocat8049
      @katocat8049 3 ปีที่แล้ว +6

      感謝大大幫忙畫重點~

    • @ryan980053
      @ryan980053 ปีที่แล้ว +2

      thanks

    • @ankh1284
      @ankh1284 ปีที่แล้ว +1

      @@ryan980053 tks

  • @陳翰儒-d5m
    @陳翰儒-d5m 3 ปีที่แล้ว +89

    教授真的教得太好了,非常感謝您公開這些優質課程內容

  • @yunzhang2553
    @yunzhang2553 3 ปีที่แล้ว +13

    真的太幸运,能看上到宏毅老师的课!我可太爱宏毅老师了!

  • @olivia-qu6bj
    @olivia-qu6bj 2 ปีที่แล้ว +6

    从来没有这么清楚明白过!!感谢!分享!

  • @巫佳真-x8y
    @巫佳真-x8y 11 หลายเดือนก่อน +4

    真的太精彩了,謝謝老師分享

  • @boykuro2298
    @boykuro2298 3 ปีที่แล้ว +21

    4:37 開局就送魔關羽 XDDDDDD
    (笑倒地

  • @theoden001m
    @theoden001m 2 ปีที่แล้ว +3

    2:34諸葛村夫原來老師也有看冷淡熊

  • @舒新胜
    @舒新胜 ปีที่แล้ว +2

    overfitting原因之一:模型弹性太大。解决方法之一:增加训练资料

  • @andrewll
    @andrewll 3 ปีที่แล้ว +7

    請問作業也能開放讓我們這些外面來學習的同學做嗎? 謝謝

  • @frankchen6160
    @frankchen6160 3 ปีที่แล้ว +9

    2:13 一袋米要扛幾樓 一袋米要扛二樓

  • @nanakaka7
    @nanakaka7 2 ปีที่แล้ว +5

    46:11 想請教老師跟大家 n-fold cv 的問題
    我選好model 1的參數組合是最佳的 然後再把全部的training set用此參數組合去訓練
    那我要怎麼知道什麼時候train到最好了呢?(要train到多少iteration?)
    也是照model 1的iteration去停止嗎,但資料量不一樣 這樣定好像也怪怪的
    希望可以幫忙解惑 感謝~~

  • @proust.317
    @proust.317 3 ปีที่แล้ว +3

    非常感谢!老师讲的太好了

  • @Zhou-yy
    @Zhou-yy 10 หลายเดือนก่อน +2

    教授太厲害了 我朋友黃家賢看了這個影片 大學發了5篇論文

    • @zixianzhao5832
      @zixianzhao5832 5 หลายเดือนก่อน

      厉害了兄弟,我也想当你的朋友

  • @杨恺-u9h
    @杨恺-u9h 9 หลายเดือนก่อน +1

    感谢教授分享!

  • @舒新胜
    @舒新胜 ปีที่แล้ว +1

    增加灵活性可以解决model bias。比如增加神经元数目、特征数量。深度。

  • @qiqig2585
    @qiqig2585 ปีที่แล้ว +2

    45:12 想請教一下教授和大家,這裡slide上的mse是指model 1,2,3 分別在三個validation set上的mse嗎?

  • @yichaozhang9295
    @yichaozhang9295 3 ปีที่แล้ว +6

    您好,请问作业的练习资料有链接可以分享吗?

  • @telegin_w
    @telegin_w 3 ปีที่แล้ว +3

    哈哈哈哈哈哈老师老二次元了

  • @yangod2908
    @yangod2908 2 ปีที่แล้ว +4

    凌晨我在油管上台大。

  • @舒新胜
    @舒新胜 ปีที่แล้ว +1

    解决方法:给模型一些限制,减少神经元数目,更少的参数,更少的特征,正则化,Dropout,Early Stopping

  • @ashefalijan
    @ashefalijan 3 ปีที่แล้ว +2

    loser的霸主還是個loser 老師的比喻真是簡而有力

    • @小图-k5b
      @小图-k5b ปีที่แล้ว

      啊我还在想鲁蛇是什么,原来是loser啊哈哈哈哈

  • @d4c98
    @d4c98 2 ปีที่แล้ว +3

    请问在哪里看这门课的作业呀

  • @星空月梦无痕
    @星空月梦无痕 2 หลายเดือนก่อน

    请问李老师可有作业的相关资料,想试着自己做做,提升能力😀

  • @Matlab675
    @Matlab675 3 หลายเดือนก่อน

    唯一真神

  • @舒新胜
    @舒新胜 ปีที่แล้ว +1

    解决方法2:给模型一些限制,减少神经元数目,更少的参数

  • @asdsliet
    @asdsliet 3 ปีที่แล้ว +3

    教授您好,有個問題想請教一下
    在optimization issue的部分您講到,如果較深的network比較淺的network表現差那是optimization issue,但在overfitting的部分,您說可以使用較少參數的模型來改善overfitting
    所以意思是說,模型的層數只受限於optimization的能力,但每一層的neuron數過多可能會造成overfitting嗎?

    • @bradyhuang5606
      @bradyhuang5606 3 ปีที่แล้ว +8

      應該是說,再深的 model 都可以比淺的 model 表現的好,至少是持平,只要optimize 的好。但如果 optimize 無法解決問題,可以先把 neuron 變少,讓他更容易收斂。如果每個model 都可以 optimized,那就不用擔心 overfitting 的問題了。

  • @安安-j8c
    @安安-j8c 8 หลายเดือนก่อน +1

    請問有作業連結嗎?

  • @huangmel8975
    @huangmel8975 ปีที่แล้ว

    02:13 幫補字幕->洗一些"諸葛村夫"

  • @BonnieJump
    @BonnieJump 3 ปีที่แล้ว +5

    謝謝教授讓我抽到魔關羽XD

  • @akin657
    @akin657 3 ปีที่แล้ว +2

    只看validation error的話也有可能會發生validation set overfitting,把validation error 和 validation test error 一致性一起考量是否更好?

    • @linfengdu7636
      @linfengdu7636 2 ปีที่แล้ว +2

      test set在训练过程中应该始终不可见,理论上不应该根据test set的任何信息进行调参,就只用你觉得最好的model在test set上跑一次作为最终结果 (personal view)

    • @xinliu_4242
      @xinliu_4242 2 ปีที่แล้ว

      老师说的n折交叉验证,是否可以解决validation set overfitting的情况呢?

  • @宁朱-k9k
    @宁朱-k9k 3 ปีที่แล้ว +2

    请问在哪里能看直播呐~

  • @林治夏
    @林治夏 11 วันที่ผ่านมา

    作业在哪里能找到啊

  • @tingyulai8065
    @tingyulai8065 7 หลายเดือนก่อน +1

    抱歉 我真的找不到老師的HW 請問有大大可以提供一下HW位置嗎? 我去老師的網站翻也找不到Q

  • @舒觉
    @舒觉 10 หลายเดือนก่อน

    一袋米要扛几楼,一袋米要抗七楼

  • @frankchen6160
    @frankchen6160 3 ปีที่แล้ว

    26:53 Less feature 是指降低模型的參數量嗎?

    • @babyflu3289
      @babyflu3289 ปีที่แล้ว

      feature应该是输入的数据量吧(个人理解),减少输入的数据。比如预测观看人数的时候,不用前56天,改用前28天之类的

  • @miku3920
    @miku3920 3 ปีที่แล้ว +1

    聲音有點小

  • @mlli3595
    @mlli3595 3 ปีที่แล้ว +5

    请问李老师,有没有助教的作业视频?

    • @TheChener
      @TheChener 3 ปีที่แล้ว +1

      从经验看 应该会有 多关注课程主页吧

  • @pengmick2046
    @pengmick2046 3 ปีที่แล้ว

    為什麼用較少的feature可以處理overfitting的問題呢?

    • @minhaoling3056
      @minhaoling3056 2 ปีที่แล้ว +2

      可以这样想,用更多的feature 可以制作出更为复杂的函数,那么他会过度学习training data, 甚至一些没必要的杂讯也学了起来,这样在testing data 万一没这些杂讯就会提高错误率。从数学的角度想的话你用很多feature 制作出来的function 知只适合那个training dataset

  • @futuredragonnn
    @futuredragonnn 26 วันที่ผ่านมา

  • @舒新胜
    @舒新胜 ปีที่แล้ว

    解决方法2:给模型一些限制

  • @海童-k4r
    @海童-k4r 3 ปีที่แล้ว +2

    请问老师,在哪可以看到作业呀online

    • @GoodEnough030
      @GoodEnough030 3 ปีที่แล้ว

      上面有不是?

    • @xinhaizou9240
      @xinhaizou9240 2 ปีที่แล้ว +4

      @@GoodEnough030 上面那个不是slides吗 有的话 能不能求分享一下

  • @jiadeng6152
    @jiadeng6152 3 ปีที่แล้ว +2

    brilliant!

  • @ryk-f1w
    @ryk-f1w 4 หลายเดือนก่อน

    喜欢

  • @江彥廷-o8r
    @江彥廷-o8r 2 ปีที่แล้ว

    謝謝教授雖然我看不懂 : (

  • @yellowguagua
    @yellowguagua 2 หลายเดือนก่อน

    4:49