You may want to explain that the reason w1=w0 minus (Etha*slope) is because the slope is negative, so you obtain a greater positive number as w1 is bigger than w0.
I'm not sure it's the teacher, but listening in Chinese, the explanation is very simple and clear....but none of the English speaking instructors can teach this topic well. They are all stuck on jargons and unable to explain what each jargon really means. Perhaps it's a language thing. In Chinese, the Chinese characters making up the jargon phrase would, most of the time, indicate what the meaning of the jargon is, but in English the jargon does not indicate the meaning...it's just a vocabulary and many times it's completely a new vocabulary. This is an interesting observation.....perhaps this makes learning in Chinese easier than learning in English ? So Chinese people are smarter because of this learning effect ? I'd like to hear your comments.
5:05
1.regression:藉由過去參數去預測未來
2.Classfication:選擇題,讓Ai去做選擇
8:09
3.structure learning:叫AI產生一段文章、內容、圖(創作)
11:00 15:10
15:11 22:46
25:02 Error Surface
損失函數(MSE MAE)
紅色:損失函數大、不佳
藍色:損失函數小、佳
39:45 梯度和學習率的關係
40:30
時隔五年重新回來修老師的課程,雖然隔著一個太平洋,還是收穫滿滿!
看了老师的第一讲,感觉相比以前所参考的各类资料,这个是最通俗易懂的,有信心跟随老师进入Deep Learning的世界,为以后研究生时代打好基础~😊
您真的是太寶藏的老師!寶藏的TH-cam!例子具體生動形象!真的是太棒了!
謝謝老師分享這麽好的課程❤️我的背景是做藝術設計的人,沒想到我都聽得懂,也透過了解這樣的底層邏輯,我目前訓練的LoRA終於越來越好,都是因為有您這樣的基礎介紹,把底子打好,現在就不這麼害怕了
如果早遇到这样的老师和课程,能少走几年弯路
贊同
感谢李老师!您真的是世界上我听过讲机器学习最好的老师!没有之一!深入浅出通俗易懂!我真的好感动!
机器学习的大师很多,但是能给人讲明白的却很少,老师太棒啦
十分慚愧,上學期修的時候都沒有好好看影片,只有作業出來才去寫,現在趁暑假還有時間趕快從頭學一次,也恭喜老師突破十萬訂閱!
准备劳动节把老师的课好好的看一遍,老师的中文深度学习课程是全网最好的,没有之一😁
老师您也太好了吧!!!爱死这门课了 我要认认真真学习机器学习算法!
老祖安人了
何人不识祖安区🐸
老师我爱死你了,看了机器学习、深度学习、强化学习,每门课都讲的太好了
真的讲的不错,今年考上研究生了,老师丢了篇论文给我让我学习,我之前没接触过人工智能,那篇论文根本就一点都看不懂,自己学了一点机器学习之后感觉还是云里雾里,找资料的时候就看到了有同学推荐李宏毅教授的课,刚看了前几个章节,真的讲的好清楚,老师的声音也很有激情,还是免费课,真的太棒了!
感謝教授 大慈大悲XD 分享這麼優質的內容 普渡眾生 讓我們能快速理解核心 少走很多彎路 感恩您
老师讲的太好了,深入浅出,没有知识基础的人也听得津津有味
谢谢李老师,例子非常生动,即便没有基础也能领会老师想讲的东西,再次感谢
跟寶可夢完全沒有關係的故事😂😂
被這句話戳到笑點了
hhhhhhhh
完全开源的课真的好棒!谢谢老师!
上完课回来评价,这是我看过最好的机器学习课程
李老师真的讲的太好了!!!听A.N.的课听不懂,过来听老师的课马上就听懂了。快要感动到哭,找到宝藏了。
今年七月去美国读数据科学了,老师的视频让我又复习了一遍机器学习,受益匪浅
謝謝李老師,最近工作需要用到機器學習,您的影片幫助我很快地複習機器學習的概念,讓我又可以很快的進入到狀況。
老師 周五六大家不想學的原因主要是邊際遞減(心理學)的原因。同學們一到五一直上課,到了五六實在憋不住沒有多的心思在繼續學習,此時玩樂給的utility會較高。而至於週日可能大家都還是認真向學,至少不會拖到週一才開始唸書吧。
在电子工程领域从业多年,希望能够继续学习扩展自己的知识。刚刚上过coursera上deep learning specialization五门课。发现李老师的2021课程系列,如获至宝。
感谢老师,让我能学习到机器学习方面的课程。大陆这边涉及到机器学习都是培训班授课的,收费非常贵。
看完了谢谢老师超精彩的【機器學習基本概念簡介】
謝謝老師,最近在鑽研機器學習的部分,有這個開放式課程太好了
謝謝老師用如此幽默的方式講解這些概念~
讲的真好,浅显易懂
老師,請問一下 47:05 這裏的 每一個Wj是如何找到的。是將model視作y=b+WjXj(j=1,2,3...)求出來的嗎
之前就聽過老師的課程~來重頭開始修起!
個人覺得,若是統計資料尺度的interval scale是做相減處理;若是ratio scale的loss function可以用相除。聽完這一集的啟發,感謝!
wow 有老师的新课可以刷了 开心啊 谢谢老师!
老師人好好!!又好幽默!還附上pdf 根本佛祖來的QQ
身為貴校隔壁學校的學生 直接看爆QQ (主要是聽不懂學校老師在講啥...
聽聞老師大名特地來拜聽,不愧是老師,說得太好了
the best machine learning lecture i'v ever watched, thanks a lot!!!
You may want to explain that the reason w1=w0 minus (Etha*slope) is because the slope is negative, so you obtain a greater positive number as w1 is bigger than w0.
簽到,黑暗大陸那段實在幽默不失風趣
先生最高🎉
老师讲的确实很好
开始复习,很久之前看过,但现在好像更新了很多内容
大陆生狂喜,能感受到老师对于学术的热情,认真负责。
讲的真的超级棒 呜呜
我发誓要看完这位老师的大部分课程
大學生不可能不知道微分是什麼,所以用一個人站在那個位置上左右環視來說明是為了讓網路上的人也可以看懂吧。
慕名而来,绝对吊打各种付费机构的课程!不愧是台大的,就是精品!
真的是!讲得太好了!我真的好感动!谁懂!
听过最清晰明了的中文ML教程!
深入浅出,优秀老师的最高境界
翻墙来听课,李老师讲的通俗易懂,谢谢李老师!
被推薦來看的鄉民,該訂閱了
寒假认真学一下!!!!
老师的课通俗易懂,很适合小白入手
老師,元宵節快樂!
I'm not sure it's the teacher, but listening in Chinese, the explanation is very simple and clear....but none of the English speaking instructors can teach this topic well. They are all stuck on jargons and unable to explain what each jargon really means. Perhaps it's a language thing. In Chinese, the Chinese characters making up the jargon phrase would, most of the time, indicate what the meaning of the jargon is, but in English the jargon does not indicate the meaning...it's just a vocabulary and many times it's completely a new vocabulary. This is an interesting observation.....perhaps this makes learning in Chinese easier than learning in English ? So Chinese people are smarter because of this learning effect ? I'd like to hear your comments.
👍谢谢,讲得通俗易懂。
谢谢老师!讲得好好啊
我很喜欢这种幽默调侃方式的教学模式,而且演示的例子也是很通俗易懂接地气😀,相反内地的关于ML课程教学模式有点太严肃和theoretical。
真的教的很好 感謝老師的課程
看了李大神的課,才發現機器學習竟可以完全不用從統計學的角度切入。拜學了!搞統計的人立馬會想到用時間序列模型。
谢谢老师,中秋快乐!
讲的真好
太好了。出新片啦。
老师说得太好了
感謝老師的分享!
請收下我的膝蓋
萬歲!
讲的好清晰,顶!!!
2021 跟宝可梦完全没有关系的船新版本
循序漸近、融會貫通學的教
學,只要有高中數學基礎即可 🎉
27:07 感謝老師謝謝🙏
收音的好壞也是一個Parameters。
哈哈 可能是因为大家周五周六玩,周日猛然发现快上学了,出于焦虑赶紧周日看看课
請問可否提供作業的題目? 感謝
星期日开始播放量上升,而不是星期一,有没有一种可能是因为有时差?
禮拜天比較多人看其實很合理,不少人為了減輕Monday Blue,其實在周日晚上就已經先收心了
合理
谢谢分享
我在读其他材料的时候 有说y是真实值 y_hat是预测值 跟老师正好相反XD
y_hat is predicted/estimated
這邊對符號運用不是很精準
可否用機器學習的方法把音軌的回音去除?
谢谢老师!!!
李老师,我的超人
老师太强了
终于可以跟着一起学了,再来巩固一下
有付费的课程吗?还是都是开放课,或则有渠道可以支持老师吗。感谢老师
谢谢老师
支持!!
谢谢老师!
礼拜五和礼拜六会不会是因为时差?不知道youtube data analysis 用的时间是PST还是台湾的时间? 有可能台湾的周末,会不会是对应了PST的周五周六?
2023/10/20 我在河南省听李老师讲课,讲的很好,也希望有机会能去台湾省听李老师的线下课😃
大赞👍
求导可以直接用定义式来计算吧?把下一天的值减去当天的值再除以一,因为不能再细分到半天或每一小时,所以离散数学只能这么做来求导数。
optimization過程中是用w對L求導,w是weight不是天
Why is there the HXH map
請教一下在 32:44 的地方
w1
27:07 這邊再看一下
assume slope is negative
我想通了ヽ(✿゚▽゚)ノ
假設斜率為x,按照老師的說法,若微分出來的斜率為負(-x),是左高右低的形狀,而要往低走的話(右邊),w1需要大於w0。
所以我們需要透過減掉微分項:w1 = w0-(-x)*η ,來得到w1 = w0+x*η。Vice versa!
嗚嗚其實很簡單但我想很久_(:з)∠)_
有理解了嗎?沒有的話,可以回小嫩嫩討論。
@@patrickruan2290 居然在這邊被抓到xD
請問2021的版本跟第一個版本有什麼樣的差別呢? 不知道要上哪個版本的
可以先看 2021 的版本,2021的版本中會提到一些過去的錄影,有需要再回去看
@@HungyiLeeNTU 謝謝您,您的上課影片真的令人醍醐灌頂
从17年1月1号到20年12月31号,应该是4年
AI大神!
请问loss function的例子里面,global minimum 是负值,最小的loss不是零吗?
30:21 有同學問這個問題,老師也有回答
對,老師有回答,反正就是 loss function 可以自己設立,只要合理(當然還要有效,比如提供不錯的梯度等),所以自己設立的數學式,有可能有負值。
周五六低而周日高,可能是因为时差吧 :)
感觉李老师新版的ml主要是深度学习?看syllabus感觉传统机器学习覆盖的不多,有没有上完的同学解答一下?
是的,ml的部分可以看旧版的课程
只是這個作業 沒有辦法參與
都不知道怎麼把學到的實作一下哈哈
看 2017 版,我覺得超棒的。
老師您好,用偏微分取極值,會不會有機會剛好取到極大值,反而讓Loss極大化呢?謝謝老師
取點確認是極值之後先丟回原式看是極大還是極小應該就可以了吧(我猜
太威啦~
緒頡兄好呀
2017年-2020年 是4年时间啦