ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
the best intro to deep learning tutorial I have ever seen
已收藏,感谢
謝謝分享, 我也一邊看一邊回顧, 很棒
7:42 I think it's approximately optimized solution instead of local optimized solution.
Thank you so much, this is a very good interpretation of introduction of deep learning!
Sigmoid Function = S 形函数, 不懂可以看它的函数图
願意分享知識 還整理並加以講解 100分!!
謝謝
18:00 說minibatch正確率更高,我覺得這說法好像有點問題,因為我看到網上說minibatch是意思是介乎全部數據分組跟一個數據分組(Stochastic Training)之間的,所以應該說,minibatch比Stochastic Training更準確,但比跑全部數據更不準確。因為我剛入門,不知我有沒有理解錯。謝指正
注意看4:26秒说到 1 和 2 的区别,在1980年代,计算机科学界出现了两大难题,都是跟中文输入电脑有关:第一个是如何在设计出汉字字库之后用激光照排来输入,毕竟当时没有搜狗输入法,看着文稿人打印慢死的。第二个问题,如何在用手写板类的输入进行识别字母(当然现在电脑城几美元就可以买一套手写USB装置)。两个概念,都是用到类似的技术。
最近在接觸影像處理的領域,看到深度學習覺得可以應用
个人认为讲的非常不错
哇 好興奮呀 紫楓也太強了 會手機程式又會AI
哈哈哈
15:00 - overfitting 不是餵給太多資料.
虽然是这样没错,我觉得他的意思因该是在 dataset 大小恒定的情况下,给 network 的 training data 太多,从而 test data 太少,出现 overfitting
確實說錯了,過度學習 並非資料太多,而是過度擬和曲線,造成整個模型,把每個data的微小差異都給記下來,等於是直接把訓練資料給背起來一樣所致
感謝指正!!
overfitting 是指資料太少,模型太複雜,所以去遷就那些不能真切描述 "全貌“ 的資料,所以要解決 overfitting、老師的講義有說: 1.) 增加訓練資料 2.) 加入 regularization 對 weight做一些限制,有點不要太敏感。
overfitting 應該不是你理解的這樣 應該是上面 鄭宜崴 所說的,是過度訓練,完全 fit training data ,所以在 test data實測 誤差比想像的大,如同老師提的 駕訓班學車 過度學習開車原則 只適用於駕訓班場地 實際上路 會開不好。
Is there anyone who listen or watch the whole video? I don't think so.
真的很棒的一个引路讲解。。。
多谢分享!
good tutorial!
Brilliant! Thank you!
very good video to learn deep learning!!!
你還不夠熟, 因為你講不出深入的原理 但夠勇氣出來介紹
調1.25倍速度把講義印出來或是用ipad邊看邊記筆記講得還挺清楚的啊🤔🤔🤔🤔🤔
感谢分享,对我很有启发
感谢分享。。
晚了3年才看到, 相见恨晚啊。
问一下,Deep learning和CNN有什么关系?CNN是deep learning的一个应用吗?
CNN應該是把資料作預先處理後在丟給深度學習如果沒理解錯的話
@@黃柏瑋-k8t 谢谢。已经知道了
一開始覺得講得不錯,後面有點可惜比如說Pooling的意義是什麼?一下就跳過這樣? 為啥要取特徵值大的去pooling...有點避重就輕的講解...可能是還不太熟>< 加油 多多訓練分享變成自己爬文去找沒講清楚地方這樣
感谢分享!通俗易懂!
感謝您!!真的收穫良多!
谢谢分享!
thanks for your sharing
不錯喔! 謝謝您讓我多學了!
不會教,不懂:就說這樣子、這樣子, 從頭到尾就說這樣子. 那是怎樣子?
Very excellent introduction. Overfitting, GA 是 local minima 部份似有疑慮
作為一個overview非常不錯
Overfitting跟統計概念中的樣本推導有關,跟data數量沒太大關聯
請問24分時,停下來是指資料取部分還是指找theda的最佳解
找了能用的theda吧
講者這裡沒有理解的很清楚,Testing data 跟 Validation data 是不一樣的,不是差不多。Testing data是指未來要測的 "未知" 資料, Validation data 是指手邊有的 "已知"的data 沒有拿來用於training,可以拿來當作testing data驗證。你會有 Validation data的曲線,不會有 Testing data 的曲線。誤差最小是跟 Validation data比較。
good,very good.
你的影片太讚啦!
CNN 原理讲得透彻! good job. thanks
非常棒~~
讲得很好
Thanks for sharing
讲得很好👍
Thanks for sharing~
现在都是死记硬背
讲得不错 发音有些头疼。。
Great.
Thanks!
感謝分享XD
very nice
中文发音就不吐槽了,这个英文发音实在是受不了
0:32 有四個 "塔比克", 深度學習的 "出捏英"
那...那...那...那...那...,聽得好累
太難了!
1*(-1)=?
我發現李教授在十月時有自己釋出影片th-cam.com/video/Dr-WRlEFefw/w-d-xo.html
真是笑死,一邊說著傷人的話,一邊說我沒有要傷害你的意思
如果真心希望他能講的更好才不會用批評的語氣
而是用希望他繼續做下去的語氣
這種事本來就是靠累積的,怎麼可能一開始就天生神力,講到每個人都跪著聽
废话真特么多
還行吧
英文發音好爛,很多單詞都是亂讀的誒
the best intro to deep learning tutorial I have ever seen
已收藏,感谢
謝謝分享, 我也一邊看一邊回顧, 很棒
7:42 I think it's approximately optimized solution instead of local optimized solution.
Thank you so much, this is a very good interpretation of introduction of deep learning!
Sigmoid Function = S 形函数, 不懂可以看它的函数图
願意分享知識 還整理並加以講解 100分!!
謝謝
18:00 說minibatch正確率更高,我覺得這說法好像有點問題,因為我看到網上說minibatch是意思是介乎全部數據分組跟一個數據分組(Stochastic Training)之間的,所以應該說,minibatch比Stochastic Training更準確,但比跑全部數據更不準確。因為我剛入門,不知我有沒有理解錯。謝指正
注意看4:26秒说到 1 和 2 的区别,在1980年代,计算机科学界出现了两大难题,都是跟中文输入电脑有关:第一个是如何在设计出汉字字库之后用激光照排来输入,毕竟当时没有搜狗输入法,看着文稿人打印慢死的。第二个问题,如何在用手写板类的输入进行识别字母(当然现在电脑城几美元就可以买一套手写USB装置)。两个概念,都是用到类似的技术。
最近在接觸影像處理的領域,看到深度學習覺得可以應用
个人认为讲的非常不错
哇 好興奮呀 紫楓也太強了 會手機程式又會AI
哈哈哈
15:00 - overfitting 不是餵給太多資料.
虽然是这样没错,我觉得他的意思因该是在 dataset 大小恒定的情况下,给 network 的 training data 太多,从而 test data 太少,出现 overfitting
確實說錯了,過度學習 並非資料太多,而是過度擬和曲線,造成整個模型,把每個data的微小差異都給記下來,等於是直接把訓練資料給背起來一樣所致
感謝指正!!
overfitting 是指資料太少,模型太複雜,所以去遷就那些不能真切描述 "全貌“ 的資料,所以要解決 overfitting、老師的講義有說: 1.) 增加訓練資料 2.) 加入 regularization 對 weight做一些限制,有點不要太敏感。
overfitting 應該不是你理解的這樣 應該是上面 鄭宜崴 所說的,是過度訓練,完全 fit training data ,所以在 test data實測 誤差比想像的大,如同老師提的 駕訓班學車 過度學習開車原則 只適用於駕訓班場地 實際上路 會開不好。
Is there anyone who listen or watch the whole video? I don't think so.
真的很棒的一个引路讲解。。。
多谢分享!
good tutorial!
Brilliant! Thank you!
very good video to learn deep learning!!!
你還不夠熟, 因為你講不出深入的原理 但夠勇氣出來介紹
調1.25倍速度
把講義印出來或是用ipad邊看邊記筆記
講得還挺清楚的啊🤔🤔🤔🤔🤔
感谢分享,对我很有启发
感谢分享。。
晚了3年才看到, 相见恨晚啊。
问一下,Deep learning和CNN有什么关系?CNN是deep learning的一个应用吗?
CNN應該是把資料作預先處理後在丟給深度學習
如果沒理解錯的話
@@黃柏瑋-k8t 谢谢。已经知道了
一開始覺得講得不錯,後面有點可惜
比如說Pooling的意義是什麼?
一下就跳過這樣? 為啥要取特徵值大的去pooling...
有點避重就輕的講解...
可能是還不太熟>< 加油 多多訓練分享
變成自己爬文去找沒講清楚地方這樣
感谢分享!通俗易懂!
感謝您!!
真的收穫良多!
谢谢分享!
thanks for your sharing
不錯喔! 謝謝您讓我多學了!
不會教,不懂:就說這樣子、這樣子, 從頭到尾就說這樣子. 那是怎樣子?
Very excellent introduction. Overfitting, GA 是 local minima 部份似有疑慮
作為一個overview非常不錯
Overfitting跟統計概念中的樣本推導有關,跟data數量沒太大關聯
請問24分時,停下來是指資料取部分還是指找theda的最佳解
找了能用的theda吧
講者這裡沒有理解的很清楚,Testing data 跟 Validation data 是不一樣的,不是差不多。
Testing data是指未來要測的 "未知" 資料, Validation data 是指手邊有的 "已知"的data 沒有拿來用於training,可以拿來當作testing data驗證。你會有 Validation data的曲線,不會有 Testing data 的曲線。誤差最小是跟 Validation data比較。
good,very good.
你的影片太讚啦!
CNN 原理讲得透彻! good job. thanks
非常棒~~
讲得很好
Thanks for sharing
讲得很好👍
Thanks for sharing~
现在都是死记硬背
讲得不错 发音有些头疼。。
Great.
Thanks!
感謝分享XD
very nice
中文发音就不吐槽了,这个英文发音实在是受不了
0:32 有四個 "塔比克", 深度學習的 "出捏英"
那...那...那...那...那...,聽得好累
太難了!
1*(-1)=?
我發現李教授在十月時有自己釋出影片
th-cam.com/video/Dr-WRlEFefw/w-d-xo.html
真是笑死,一邊說著傷人的話,一邊說我沒有要傷害你的意思
如果真心希望他能講的更好才不會用批評的語氣
而是用希望他繼續做下去的語氣
這種事本來就是靠累積的,怎麼可能一開始就天生神力,講到每個人都跪著聽
废话真特么多
還行吧
英文發音好爛,很多單詞都是亂讀的誒
Thanks for sharing