【機器學習2021】卷積神經網路 (Convolutional Neural Networks, CNN)

แชร์
ฝัง
  • เผยแพร่เมื่อ 25 ส.ค. 2024

ความคิดเห็น • 126

  • @eoshello7201
    @eoshello7201 7 หลายเดือนก่อน +17

    我是大陆来的。老师讲的比其他其他可能清楚,也解释我很多的疑问。 感谢老师

  • @koch3312
    @koch3312 2 ปีที่แล้ว +42

    用AlphaGO没用pooling层这个例子来提醒大家不要盲目模仿各种火热的神经网络结构,要去思考使用一个模组的理由,这个引导太妙了

  • @user-dl8ds1vb8n
    @user-dl8ds1vb8n 3 ปีที่แล้ว +32

    第一次听到这么清楚的对CNN的讲解

  • @LaoZhao11
    @LaoZhao11 3 ปีที่แล้ว +37

    當建模時遇到問題,回來上點課,才發現解答都在這些基礎觀念中~~ 感謝老師

  • @a0987890720
    @a0987890720 2 ปีที่แล้ว +50

    非本科系正在學AI相關,真的很感謝老師淺顯易懂的教學

  • @ralphchien184
    @ralphchien184 2 ปีที่แล้ว +11

    一直以來都在負責firmware的人竟然也能看懂老師的解說,真的遇到大師了! 唯有大師級才能細細說明,娓娓道來!

  • @user-fx7kx9vk1y
    @user-fx7kx9vk1y ปีที่แล้ว +6

    很感謝老師仔細的講解,讓我能對於神經網路有更深的認識,影片內容十分精彩,過程中都不會有讓人有想睡的感覺。

  • @chenwilliam5176
    @chenwilliam5176 ปีที่แล้ว +5

    這是一門以數學為工具的「實驗科學」❤

  • @shelo1747
    @shelo1747 ปีที่แล้ว +4

    so clearly explained! I read many blogs today, and none of them explain CNN as brilliant as Prof Lee🥰

  • @zhenwang5805
    @zhenwang5805 2 ปีที่แล้ว +4

    老师讲的好清楚声音也好棒!每次下饭的时候都会拿来看

  • @iam30719
    @iam30719 3 ปีที่แล้ว +13

    新版講解更全面&清楚了
    感謝老師的用心

    • @wyc2462
      @wyc2462 3 ปีที่แล้ว

      偉大

  • @sophialee-ml2mt
    @sophialee-ml2mt 3 หลายเดือนก่อน +1

    這是我看過把CNN mode講的最清楚的了,好厲害

  • @ziyuepiao9079
    @ziyuepiao9079 3 ปีที่แล้ว +9

    周五周六别人玩耍的时候赶紧补李老师的ML课💪!!

  • @chengjing9029
    @chengjing9029 3 ปีที่แล้ว +3

    随缘一搜竟然找到新鲜视频!! 感谢老师一直更新

  • @dashunwang6267
    @dashunwang6267 2 ปีที่แล้ว +1

    回过头再听老师的课,犹有收益!

  • @aemm8315
    @aemm8315 2 ปีที่แล้ว +6

    老师讲的实在是太好了,初中生都能听懂

  • @mtwg9307
    @mtwg9307 2 ปีที่แล้ว +5

    The most magnificant and fantastic lecture ever.

  • @jacklin708
    @jacklin708 2 ปีที่แล้ว +11

    感謝宏毅老師的無私教學與分享!真是獲益良多。
    老師在 6:49 附近時講到,參數越多會增加 overfitting 的風險。但我看最近文獻指出,近年大部分 Neural networks 都是 Overparameterized,擁有比資料數據還多的參數,是否 overfitting 比較取決於 test 資料 與 training 資料的分布差異,而並不是越多參數就越容易 overfitting 。請問是這樣嗎?謝謝。

    • @sugoilang
      @sugoilang ปีที่แล้ว +7

      我覺得 test 資料 與 training 資料的分布差異所造成的在training表現好testing表現差的行為是mismatch 不算是overfitting. 參數越多會增加 overfitting 的風險的原因可以參考老師課程中的圖例,參數越多能表示的curve就越複雜,而當我們追求training loss越來越小的同時,等於是在將training data 去 "fit" 在curve 上面,這個model是客製化在training data上,所以到了testing時,結果反而不好了,所以才會說是"overfiting"。
      我的淺見,有錯還請糾正

  • @jianguo1299
    @jianguo1299 2 ปีที่แล้ว +3

    非常感谢李老师的讲解!

  • @huhu0002
    @huhu0002 11 วันที่ผ่านมา

    Really good speech!Thank you professor!

  • @hangchen
    @hangchen 2 ปีที่แล้ว +9

    34:23 在这里我懂了PyTorch 的 conv2d 的 out_channel 原来就是filter(的数量)的意思

    • @hangchen
      @hangchen 6 หลายเดือนก่อน +1

      哈哈,一年后来重新温习!

  • @user-vw3pr5gq9g
    @user-vw3pr5gq9g 3 ปีที่แล้ว +5

    老師是台灣最酷的男人 好暈喔

  • @user-dm4sn3vp6n
    @user-dm4sn3vp6n 5 หลายเดือนก่อน +1

    謝謝老師!!! 受益良多!!! 萬分感謝您

  • @alexfamntea
    @alexfamntea 6 หลายเดือนก่อน

    感謝老師製作的教學影片!!真的講解得太好了!!

  • @medmeddd583
    @medmeddd583 2 ปีที่แล้ว +3

    老师,您好,有个地方想向您请教。在35分钟左右的例子里面,因为例子给的是一个1channel的黑白图片,所以在有64个Filter做convolution之后Channel变成了64个Channel,如果是一个RGB的3Channel的图片做同样的convolution,那得到的feature map的tensor应该是64*3=192个Channel吧?

    • @startrek3779
      @startrek3779 2 ปีที่แล้ว

      我也有类似的疑惑...

    • @zhouwang2123
      @zhouwang2123 2 ปีที่แล้ว +1

      我在这儿也有问题。不过我猜他是对3个channel的每个channel分别做内积然后相加得到一个数。之后再stride一下继续之前同样的操作。这样的话一个filter扫完一张rgb图片后就得到一个2维矩阵。64个不同的filter然后产生64个不同的2维矩阵。

    • @laplaceha6700
      @laplaceha6700 2 ปีที่แล้ว +4

      @@zhouwang2123 你說的是對的,不論處裡的影像channel數是多少,經過一個filter作用後,輸出都是一個二維矩陣,也就是channel數 = 1。

  • @Marina-vb9gv
    @Marina-vb9gv 3 ปีที่แล้ว +5

    Hello 請問宏毅老師有時間可以幫忙講解一下 3D CNN嗎?volumetric、multi-view,point-cloud都具體怎樣實現呢? 多謝!!

  • @willshao8772
    @willshao8772 3 ปีที่แล้ว +9

    老師真的教得太好了 感動

  • @user-up4nm1mm9t
    @user-up4nm1mm9t 3 ปีที่แล้ว +19

    太清楚了 我愛宏毅老師

  • @user-sh5dm8hz8b
    @user-sh5dm8hz8b 3 ปีที่แล้ว +2

    将一个filter在图片滑动的过程,作为不同位置某一个pattern检测的解释会不会有点牵强?比如完全一致的鸟嘴分别在两个图片的左上方,右上方,虽然同一个filter将会得到同一个值a,但是提取得到的特征,flatten以后特征中a的位置并不一样呀?希望老师能解答。

    • @Eaway
      @Eaway 27 วันที่ผ่านมา

      我的理解是這樣,滑動只是一種容易理解的簡化表示, 實際上不是真的滑動,只是不同神經元的參數共享,神經元數量不變,網路架構還是一樣大,但參數量減少很多

  • @user-gg3fk4wy6s
    @user-gg3fk4wy6s 2 ปีที่แล้ว +1

    讲得很清楚,终于明白CNN了哈哈哈哈开心

  • @dequanwang-yl7cr
    @dequanwang-yl7cr 5 หลายเดือนก่อน +1

    你才是我导师,讲得真好

  • @user-pv9fs7sb1p
    @user-pv9fs7sb1p 5 หลายเดือนก่อน +1

    李老师是神!👍

  • @shanshanye9702
    @shanshanye9702 11 หลายเดือนก่อน

    谢谢老师,讲得真好。完全听懂了

  • @jasonkung98
    @jasonkung98 3 ปีที่แล้ว +2

    非常清楚地解释神经网络,很赞哦!期待有更多新的教学

  • @x1001000
    @x1001000 2 ปีที่แล้ว +1

    39:20 請問 @HungyiLeeNTU 老師,從 Neuron Version Story 面向,一層 Convolutional Layer 有幾個 Neuron,能否如此問?

    • @laplaceha6700
      @laplaceha6700 2 ปีที่แล้ว +3

      (如果我有說錯請告知,感謝)
      一層 Convolutional Layer 有幾個 Neuron是超參數要自己定的,在實作上如果是用深度學習框架寫的話,就取決於你處裡的影像大小、kernel size、number of kernel 和stride。舉例:100x100的影像、kernel size = 3x3、number of kernel = 64( = 每一組神經元有幾個神經元)、stride = 1,則該層神經元數量 = (100-2)*(100-2)*64。(100-2)*(100-2)是receptive field的數量,和影像大小、kernel size、stride有關。

    • @laplaceha6700
      @laplaceha6700 2 ปีที่แล้ว +2

      補充(這樣可能說得比較清楚):
      1.每一個RF都有一組神經元守備(每一組神經元的神經元數量相同)
      2.每一個神經元都是某一種pattern的detector
      3.(不同RF對應的)不同組神經元內的同一次序(比如說都是第一顆神經元)的神經元偵測同一種pattern
      4.一個filter偵測一種pattern
      5.RF大小 = filter大小;RF數量 != filter數量,filter數量是自定的
      6.一組神經元內神經元的數量 = filter的數量(by3.&4.)
      總結:CNN內某一層有幾個神經元 =RF數量*一組神經元內的神經元數量(=filter數量)

  • @yihangli9053
    @yihangli9053 3 ปีที่แล้ว +3

    赞赞赞,老师讲得太清楚了!

  • @lianqiao2435
    @lianqiao2435 3 ปีที่แล้ว +1

    最大也是最重要的优点是讲的特别清楚且易懂。666666

  • @anthonyhan6825
    @anthonyhan6825 3 ปีที่แล้ว +4

    看了十分钟就果断点了关注

  • @sandytw
    @sandytw 3 ปีที่แล้ว +7

    41:49 的字幕似乎是mean pooling 被寫成min pooling?

    • @user-dg4oo8tn3w
      @user-dg4oo8tn3w ปีที่แล้ว

      是的,誰叫他們聽起來這麼像XD

  • @Anggieisgood
    @Anggieisgood 4 หลายเดือนก่อน

    有種感覺 會回到
    釐清目的之下
    找到的資料分析方法

  • @davidhunter-monkey
    @davidhunter-monkey 2 หลายเดือนก่อน

    好人一生平安

  • @kuo-hunglo8379
    @kuo-hunglo8379 ปีที่แล้ว +1

    看完這段,直覺可以用先用隨機森林挑選重要特徵值(影像的某些區域),再代回神經網路

  • @user-py8er7fz8t
    @user-py8er7fz8t ปีที่แล้ว

    太爱李老师了

  • @ching-yichen2858
    @ching-yichen2858 3 ปีที่แล้ว +5

    太精彩了

  • @rnoro
    @rnoro 2 ปีที่แล้ว +7

    有點不同意pooling只是做subsampling,從數學的角度來看pooling做的應該是「用不等式來刻畫特徵」,如果沒有pooling就是用「等式來刻畫特徵」,有些問題用不等式來刻畫特徵會更容易一點~在alpha go的例子裡,似乎等式對局部的特徵描述更精細一點,不過只要不等式夠多,理論上也是行得通的。。。
    另外alpha go的地方也有點不同意,終極版的alpha zero使用ML的方式不完全是分類問題,更接近函數擬合問題,擬合的是winning rate(勝率),而且私以為alpha系列最核心的地方是用MCTS來幫助決策,如果單純只用CNN來決策效果應該會差很多>

  • @hanseyye1468
    @hanseyye1468 3 ปีที่แล้ว

    老师我有一个问题,一个6*6*3的图片经过一个3*3*3的 filter,stride为1 ,没有padding。卷积之后为一个4*4的图片,那请问老师这个4*4图片上的每一个值怎么计算?3个channel与filter内积了之后再相加吗?

    • @HungyiLeeNTU
      @HungyiLeeNTU  3 ปีที่แล้ว +4

      就是把圖片 3*3*3 的範圍中的值跟 3*3*3 的 filter 做內積

    • @hanseyye1468
      @hanseyye1468 3 ปีที่แล้ว

      @@HungyiLeeNTU 谢谢老师!

  • @user-py8er7fz8t
    @user-py8er7fz8t ปีที่แล้ว +1

    真的太清晰了 比mit哪个intro to dl还好上不少

  • @markchen8893
    @markchen8893 หลายเดือนก่อน

    A picture is a 3D tensor (width, height, color channels)
    Number of weights = input_size x number_of_neurons
    = (100 * 100 * 3) * 1000
    Too many parameters → Overfitting
    Conclusion: Image processing does not “require” fully connected networks
    ****9:20** We can identify something using its critical features**
    One can see that this is a bird when they notice the beak, the feet, and the wings.
    → Neural network doesn’t need the whole image
    ****11:00** Receptive Field**
    For a single neuron in a convolutional layer, the local receptive field is the small region of the input image (or previous layer) that this neuron processes. For example, if the convolutional kernel size is 3×3, the local receptive field of a neuron in that layer is a 3×3 region of the input.
    **15:44 Classic Receptive Field Arrangement
    Parameters:**
    1. kernel_size: The height * width of the field is called the kernel size.
    (PyTorch Conv2D 打 (kernel_size=3) 會給你 3 x 3的kernel)
    2. stride: 從現在的field跳幾格會到下一個field
    Stride should be small. You want the fields to overlap, otherwise, you may risk missing important patterns
    1. padding: The field may go out of bound, so you fill the area with 0s
    21:30 **Same key features appearing in different receptive fields**
    We can let neurons from different receptive fields share parameters.
    Two neurons with the same receptive field would not share params.
    Every shared param is called a “**filter**”
    ****27:00** Receptive Field + Parameter Sharing = Convolutional Layer**
    Models that utilize convolutional layers are called “CNN”s
    ****29:00** CNN Explanation 2nd Version**
    ****34:00** Feature Map**
    Filter performs convolution with each field and generates a map of scores.
    ****38:30** Summary**
    ****40:00** Pooling**
    Decreasing the resolution will not change the object
    Objective: Decrease the amount of computation required.
    Max Pooling: Pick the largest member from a group of scores.
    Disadvantage: Not suitable for intricate images
    目前運算資源夠用,Pooling可有可無
    ****54:00** CNN can’t deal with scaling and rotation**
    放大或旋轉一張圖它會無法辨認 → We need data augmentation (create new data by scaling and rotating existing images)

  • @user-us3wx6fl6o
    @user-us3wx6fl6o ปีที่แล้ว

    谢谢教授!

  • @yin8421
    @yin8421 2 ปีที่แล้ว

    請問老師,cross entropy 的介紹在哪一部影片中呢?謝謝您。

  • @glhuang7944
    @glhuang7944 3 ปีที่แล้ว +1

    感谢老师!

  • @jasonli4590
    @jasonli4590 3 ปีที่แล้ว +1

    守备区域,,李老师肯定很爱棒球

  • @qnr9584
    @qnr9584 3 ปีที่แล้ว +1

    想听元老师通过数学讲OVERFITTING和模型弹性

  • @saibeach
    @saibeach ปีที่แล้ว

    讲的真好!👍

  • @RH-ms5ui
    @RH-ms5ui 3 ปีที่แล้ว +2

    非常棒!

  • @Terry0319
    @Terry0319 ปีที่แล้ว

    謝謝老師

  • @iron17kimo
    @iron17kimo 3 ปีที่แล้ว +1

    neuron老師發的是英式發音

  • @pelosi7897
    @pelosi7897 4 หลายเดือนก่อน

    希望老师多来大陆举行技术论坛讲座

  • @ichenyeh
    @ichenyeh 3 ปีที่แล้ว

    請問吳培元老師的課程有錄影嗎?

  • @beckysxsong9401
    @beckysxsong9401 3 ปีที่แล้ว

    太强惹。。谢谢!

  • @25600562
    @25600562 ปีที่แล้ว

    請問吳培元老師也有線上課程嗎

  • @user-lx6lq7xb7c
    @user-lx6lq7xb7c 2 ปีที่แล้ว +1

    32:50 也有可能用 ZERO PADDING 補滿原本圖片的大小

  • @metaljacket8102
    @metaljacket8102 3 ปีที่แล้ว +1

    厉害!要是听这个还听不明白就基本告别CNN了

  • @ziyuepiao9079
    @ziyuepiao9079 3 ปีที่แล้ว +1

    请问老师是会随堂在TH-cam上直播嘛?

    • @HungyiLeeNTU
      @HungyiLeeNTU  3 ปีที่แล้ว +3

      因為這學期修課人數多,怕教室坐不下,所以有一個給修課學生的隨堂直播,不過公開在YT 上的基本上就是我講的全部內容了,我沒有特別剪輯

    • @vomosnik4466
      @vomosnik4466 3 ปีที่แล้ว +1

      @@HungyiLeeNTU 老师,有没有兴趣在大陆B站开个课呢,您在大陆特别受欢迎

    • @ziyuepiao9079
      @ziyuepiao9079 3 ปีที่แล้ว

      @@HungyiLeeNTU 哇好的!!谢谢李老师💪

    • @xinxinwang3700
      @xinxinwang3700 3 ปีที่แล้ว

      @@vomosnik4466 好像B站有同学搬运,不过不知道经过授权没

    • @vomosnik4466
      @vomosnik4466 3 ปีที่แล้ว

      @@xinxinwang3700 应该没有授权吧,老师跟百度好像有个合作的课,但是用的paddle,并不想用paddle

  • @hangchen
    @hangchen 2 ปีที่แล้ว

    感谢宏毅老师!所以kernel与filter是一个东西吗?

    • @laplaceha6700
      @laplaceha6700 2 ปีที่แล้ว +4

      沒錯,kernel = convolutional kernel = filter = mask

    • @hangchen
      @hangchen 2 ปีที่แล้ว

      @@laplaceha6700 牛逼!

  • @SpL-mu5zu
    @SpL-mu5zu 2 ปีที่แล้ว +1

    喜欢8:52的图片

  • @two-rc7nf
    @two-rc7nf 3 ปีที่แล้ว

    想问一下 李老师的pres是用什么做的呀?

    • @HungyiLeeNTU
      @HungyiLeeNTU  3 ปีที่แล้ว

      直接用 powerpoint 做的

  • @leetcode8843
    @leetcode8843 ปีที่แล้ว

    可以先pooling 再convolution 嗎?

    • @JerryLi318
      @JerryLi318 ปีที่แล้ว +1

      可以啊 但是那个一般叫sub- sampling 在特征识别很常用

  • @TianruiKing
    @TianruiKing 2 ปีที่แล้ว

    爲什麽是64個filter 不是3channle * 4 *4 = 48

    • @laplaceha6700
      @laplaceha6700 2 ปีที่แล้ว +1

      filter數量是超參數,自己定的

  • @xingshengwang9868
    @xingshengwang9868 ปีที่แล้ว

    Explain CNN with two ways!

  • @user-lu3wk1yn7k
    @user-lu3wk1yn7k 2 ปีที่แล้ว

    通勤时候学习

  • @qemmm11
    @qemmm11 ปีที่แล้ว

    這是什麼呢?🤔

  • @pauldeng86
    @pauldeng86 2 ปีที่แล้ว

    通俗易懂

  • @finn4714
    @finn4714 2 ปีที่แล้ว

    已按讚65次

  • @chenwilliam5176
    @chenwilliam5176 ปีที่แล้ว

    為何稱作 Convolutional Nerual Network ? 😮和數學中的
    Converlution
    有何關聯呢 ? 😮

  • @yyongfan
    @yyongfan ปีที่แล้ว

    老师,我有个小问题,就是说如果channels=16,我们使用二维的卷积核怎么去卷积呢

  • @sciab3674
    @sciab3674 2 หลายเดือนก่อน

    老师很明白 佩服

  • @user-nh7md6qv1u
    @user-nh7md6qv1u 3 ปีที่แล้ว

    其實我一直覺得我看到的是....一隻鳥(但我沒喝酒啊~我是不是有問題...XD)

  • @zi-yanghuang14
    @zi-yanghuang14 3 ปีที่แล้ว

  • @kitgary
    @kitgary 3 ปีที่แล้ว

    講得很好, 但感覺學ML還是聽英文較易懂!

  • @user-yf9hk8he8d
    @user-yf9hk8he8d 3 ปีที่แล้ว +2

    有一天教官有事找李老師,
    就問一個班上的同學說:李宏毅幾班...
    同學想了一下回答說:逮金?

  • @615rip2
    @615rip2 2 ปีที่แล้ว

    666

  • @myworldAI
    @myworldAI 3 ปีที่แล้ว +2

    中国大陸应没有这样水準的视频

    • @yichaozhang9295
      @yichaozhang9295 3 ปีที่แล้ว +4

      您上个ML的课都要扯上政治因素?

    • @yls2498
      @yls2498 3 ปีที่แล้ว +4

      @@yichaozhang9295 哪裡來的政治因素?

    • @weiyize6968
      @weiyize6968 3 ปีที่แล้ว +3

      上課就上課,學知識就學知識為何要這樣講。不光是大陸或者台灣,很多華人都可以一起分享喔。

    • @ld1007
      @ld1007 3 ปีที่แล้ว

      牛啊牛啊,这都能扯

    • @kevinnoweebs2775
      @kevinnoweebs2775 3 ปีที่แล้ว

      知道李沐吗

  • @zeyuliu4226
    @zeyuliu4226 2 ปีที่แล้ว +1

    awesome!! ,我在查看《deeplearn》这本书中发现,作者说pooling层对Rotational invariance有积极作用,这是有可能的吗?😀

  • @user-vb5et9co3d
    @user-vb5et9co3d 2 หลายเดือนก่อน

    從不見李飛飛出來當網紅,真正高手不會是網紅,當然李老師講課內容還是很能吸引人的,對一些沒有基礎自學能力不好的學生我想這樣的課程應該也是有必要,尤其在台灣,我不是不尊重李老師,而是希望你如果能力足夠可以更加深入去理解Ai很核心的部分,或許也可以在Ai流程中有一點小名氣或做出一點點貢獻

    • @louis-dieudonne5941
      @louis-dieudonne5941 หลายเดือนก่อน +1

      那andrej karpathy怎麼解釋?誰說大師就不能在網路上分享教學,別笑死人了。