ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
李宏毅教授的团队,让大家极大地节省了时间,节省了生命损耗。堪称救苦救难,胜造七级浮屠 :)
同意 拯救大家的人生
雖然您講得很誇張 但我很認同是真的
李老师好!我是来自大陆的您的粉丝~ 深度学习的课我和我身边的人基本都在跟随于您,您的课在中文圈里绝对是顶级的,现在来法国读博啦~~ 我会继续跟随下去! 祝老师身体健康~~
只有我看成黑暗大陸嗎?
最頂的
不碰点政治都不会做人了是吧,认认真真讨论技术不好吗@@a12050429
@@a12050429 not funny here,focus on deep learning plz
难绷@@a12050429
李老师好!我也是来自大陆的您的粉丝~ 您绝对是顶级的,我会继续跟随下去! 祝老师身体健康~~
李老師你好! 我是香港大學computer science的學生, 我覺得你教得特別清晰, 遠比我港大的老師要好...請你保持upload影片給我們學習!!
哈哈哈我也是 HKU CS 学生
看李老师的视频看出了追番的快感❤❤
刚开始学,李老师的课程是我能接触到的最简单最清晰的了
听完李老师的课真的有一种醍醐灌顶的感觉,强烈推荐任何对机器学习/深度学习感兴趣的人听一下李老师的课。
李老师讲的机器学习真的很有美感, 之前在论文中死活看不明白的东西一下子就搞懂了
Watched quite a few videos on self-attention and this is hands-down the best explanation I have seen. World-class professor on ML without a doubt.
您简直就是我的神!!!呜呜呜,感到哭了。希望老师越来越好
感谢李老师的分享,逻辑清晰,表达流畅,受益匪浅,祝您一切顺利。
台灣最帥男人 只服李教授
老师好!我是来自大陆的粉丝!现在本科大二然后在学校做科研实习,是导师推荐我看您的视频的,真的好爱看讲得好清晰易懂!很感激您的视频带我入门机器学习和深度学习!!
李老师讲的太有条理了! 听了好多英文的课程都没有弄明白的问题 一下子就清晰了。 来自美国的华人粉丝
The best explanation on the attention mechanism I've ever watched so far. Superb.
這絕對是我見過最棒的deep learning課,不限於中文,用最通俗的語言講明白看起來很複雜的東西😂其實只看原paper沒有大神講解,即使是專業人士也會比較迷茫,k、v那裡我看到這裡才明白那個點乘具體的位置😅之前自己腦補得不對
Great job ! 听了好几个视频了,这个最棒.
非常好的课程,使我的大脑高兴,爱来自丹麦😃
Hi Prof Lee, I am a fans from Singapore. Thanks so much for your lectures!
精彩!太喜欢您的课了
我又来复习了
非常好课程,爱来自日本
老師講的太好了....全網第一
这里之所以要用softmax而不用其他激活函数,是因为最好使输入元素之间各个关联度之和为1,这样才有意义。
有大神能解答一下吗:1. 为什么alpha需要自己与自己相乘?2. 为什么向量要分q和k,而不能是只有k,alpha由k相乘所得?3. 为什么b要是乘另一个v所得,而不能是直接通过某些方式合并alpha所得?
讲的真好,自己懂的深入才能讲的浅出。
It is incredibly crystal clear for the layman ! Many thanks !
受益匪浅,非常感谢李老师
感谢李宏毅老师
字幕打成phonetic的部分李教授應該是指phoneme喔
非常感谢。直接啃论文太痛苦了
老师说的真的好!人在慕尼黑,拯救我的endterm哈哈哈
我永远喜欢李宏毅老师
首先感謝李老師,這是我見過對attention的最好的教學。想請教一個問題,就是為什麼a1 要算q1 ,k1,然後計算自己的attention score。q1 k1的物理意義是什麼呢?
我自己浅显的理解:QKV分别代表“查询标准”,“待查询指标”,和“本质”。Q是a去查询的时候,带着的查询标准。K是任何单字被查询的时候,展现出来的“待查询指标”。V是每个单字提取出来的本质。我打个单身汉找对象的比方吧。假设一个人要找对象,他一共有十个潜在的人选(包括他自己,这里请忽略性别)。Q代表他的择偶标准(比如说外形7分,年收入100万,年龄25岁以下,房子豪华)。K代表一个目标对象表现出来的指标(比如努力打扮让外形变成了6分,装成年收入60万,显得很年轻26岁,房子装修得还不错)。V代表一个目标对象本质的指标(比如这个人本质是个外形4分的人,年收入实际只有40万,实际年龄32岁)。那么Q和K相乘,实际上就是“择偶标准”和“表现出来的样子”里的匹配程度。然后通过这个匹配程度,和每个对象的本质数值做一个加权求和,出来的结果就是找到的对象最后所包含的数值。这里有两个点可以注意一下:第一个就是你未必最喜欢你自己。你跟自己的QK相似度未必是最高的。第二就是QKV本质其实可以是一样的。比如如果在一个平行世界里,人们的择偶标准和他表现出来的样子以及他的本质完全一致,那么QKV没有必要存在。QKV存在的意义就是模拟这类“我想要的”和“每个人表现出来的”以及“每个人实际的”样子是不一样的情况。但这里也有一个假设,就是本质上QKV乘以的都是同一个东西,所以同一个词的q,k,v不会差得太离谱,类比到相亲,你可以理解为一个外形3分的人很难装成外形9分,一个年收入10万的人很难装成年收入500万。
我的理解是这样的,Q代表你在浏览器中输入的问题,K代表浏览器返回的不同网页(回答),attention score由Q和K计算得到,代表我们对每个网页的质量判断,判断我们觉得哪个网页应该更容易找到问题的解答。最后V代表每个网页中的内容,之后由attention score和V计算得到b,代表我们最后得到最终答案
老师您好,想问下attention 的 Wq Wv Wk 是共享权重么, 因为看到tf bert 原代码 Q,K,V使用的dense 而不是conv
为什么不用原始输入向量a_1,而要使用新的v来计算最后的结果
讲得太好了!赞赞赞!
老师念dot product的时候太可爱了。。。
any chance to present in english , seems great content
硬Train一发神教教徒,支持一下
太厉害了!老师
想請問老師,作業的內容有公開嗎?
常常来温故而知新。
請問alpha' 跟 W的相乘也是element wise的相乘嗎?
请问李老师,如果权重都是共享的,那么self attention是如何做pos tagging的?因为权重共享,相同的输入应该就是相同的输出了呀,所以做pos tagging是要加窗口结合上下文作为输入吗?
这是2021年录制的还是之前的视频?
请问老师这里面的a2的key是什么,怎么求出来的?视频在24:28的位置.
想看作业的内容
想請問老師25:30 自己與自己的關聯性一定是1嗎?
李老师你好,我在您的网站上看到有2020年春季的课程,但是只找到了相关的作业和PPT,请问哪里有相关的视频呢?我在 TH-cam 上面并没有找到 2020年春季的视频
在那里可以看助教的程序?
都在這裡了: speech.ee.ntu.edu.tw/~hylee/ml/2021-spring.html
讲得好
wk和wq都是神经网络里的参数吗?
word embedding: th-cam.com/video/X7PH3NuYW0Q/w-d-xo.html (普通话)
想在請問老師27:16 的transform Wv跟前面的Wk要怎麼決定呢?謝謝~
也有同樣問題,是random initial嗎?
对
Trainable parameter.
谢谢老师
不知道哪邊有作業可以讓我練習…
我也在找...张前辈有可以分享的资源吗..万分感谢
把一些模糊地帶用古聖先賢帶過,這個說法不太好。
比看paper 容易多了。 谢谢
哪里可以看您的线上直播课呢?
李老师,Wq,Wk,Wv应该不是共享的吧,是不是讲错了?
請問你的問題是來自影片中的哪一個段落呢?
@@HungyiLeeNTU 比如:24:01的ppt,看上去不同的a_i都是和相同的W^q相乘,也就是W^q是共享的,这个是对的吗?为什么要共享,而不是比如W^{q}_{i},每个a_i对应一个不同的W呢?
@@zongtaowang7840 是共享的沒錯喔
@@HungyiLeeNTU 谢谢您的回复,但是为什么要共享呢?有什么目的吗?
您好,如果: "W^{q}_{i},每个a_i对应一个不同的W",我认为您可以将 "非共享W" 视作一个共享的 W^q 生成了 query, 并分别于每个query注入与 i 关联的位置信息但 i 的位置信息可以透过 Positional Encoding 提供就好而且 "非共享W" 会导致你的 a 长度必须固定, 那么整个数学式写下来就是等效一个"对 a序列 的全连接层FCN"了
请问Prof. Wu的影片会上传吗?
同问,谢谢!
@@hanwang4779 不好意思,我這邊不會在 YT 上公開 Prof. Wu 的影片
@@HungyiLeeNTU 很可惜了,不过还是特别感谢李老师的精彩课程!
(下)还没有update吗?
還沒有 update ,而且本週我沒有上課,所以下次 update 的時間是 3/26
神串留
听完我怀疑我是不是在学机器学习,听完感觉好简单
覺得簡單很好啊
老师,你是留学党的精神粮食😂
李老师,现在的RNN基本都被Self-Attention取代了吗?
th-cam.com/video/S27pHKBEp30/w-d-xo.html 这个视频将lstm与transformer进行了解析,最终的结论是transformer已经非常优秀了,但有些情况下仍然还是首选lstm,可以参考一下,不过没有字幕
2:39
mark
666
李宏毅教授的团队,让大家极大地节省了时间,节省了生命损耗。堪称救苦救难,胜造七级浮屠 :)
同意 拯救大家的人生
雖然您講得很誇張 但我很認同是真的
李老师好!我是来自大陆的您的粉丝~ 深度学习的课我和我身边的人基本都在跟随于您,您的课在中文圈里绝对是顶级的,现在来法国读博啦~~ 我会继续跟随下去! 祝老师身体健康~~
只有我看成黑暗大陸嗎?
最頂的
不碰点政治都不会做人了是吧,认认真真讨论技术不好吗@@a12050429
@@a12050429 not funny here,focus on deep learning plz
难绷@@a12050429
李老师好!我也是来自大陆的您的粉丝~ 您绝对是顶级的,我会继续跟随下去! 祝老师身体健康~~
李老師你好! 我是香港大學computer science的學生, 我覺得你教得特別清晰, 遠比我港大的老師要好...請你保持upload影片給我們學習!!
哈哈哈我也是 HKU CS 学生
看李老师的视频看出了追番的快感❤❤
刚开始学,李老师的课程是我能接触到的最简单最清晰的了
听完李老师的课真的有一种醍醐灌顶的感觉,强烈推荐任何对机器学习/深度学习感兴趣的人听一下李老师的课。
李老师讲的机器学习真的很有美感, 之前在论文中死活看不明白的东西一下子就搞懂了
Watched quite a few videos on self-attention and this is hands-down the best explanation I have seen. World-class professor on ML without a doubt.
您简直就是我的神!!!呜呜呜,感到哭了。希望老师越来越好
感谢李老师的分享,逻辑清晰,表达流畅,受益匪浅,祝您一切顺利。
台灣最帥男人 只服李教授
老师好!我是来自大陆的粉丝!现在本科大二然后在学校做科研实习,是导师推荐我看您的视频的,真的好爱看讲得好清晰易懂!很感激您的视频带我入门机器学习和深度学习!!
李老师讲的太有条理了! 听了好多英文的课程都没有弄明白的问题 一下子就清晰了。 来自美国的华人粉丝
The best explanation on the attention mechanism I've ever watched so far. Superb.
這絕對是我見過最棒的deep learning課,不限於中文,用最通俗的語言講明白看起來很複雜的東西😂其實只看原paper沒有大神講解,即使是專業人士也會比較迷茫,k、v那裡我看到這裡才明白那個點乘具體的位置😅之前自己腦補得不對
Great job ! 听了好几个视频了,这个最棒.
非常好的课程,使我的大脑高兴,爱来自丹麦😃
Hi Prof Lee, I am a fans from Singapore. Thanks so much for your lectures!
精彩!太喜欢您的课了
我又来复习了
非常好课程,爱来自日本
老師講的太好了....全網第一
这里之所以要用softmax而不用其他激活函数,是因为最好使输入元素之间各个关联度之和为1,这样才有意义。
有大神能解答一下吗:
1. 为什么alpha需要自己与自己相乘?
2. 为什么向量要分q和k,而不能是只有k,alpha由k相乘所得?
3. 为什么b要是乘另一个v所得,而不能是直接通过某些方式合并alpha所得?
讲的真好,自己懂的深入才能讲的浅出。
It is incredibly crystal clear for the layman ! Many thanks !
受益匪浅,非常感谢李老师
感谢李宏毅老师
字幕打成phonetic的部分李教授應該是指phoneme喔
非常感谢。直接啃论文太痛苦了
老师说的真的好!人在慕尼黑,拯救我的endterm哈哈哈
我永远喜欢李宏毅老师
首先感謝李老師,這是我見過對attention的最好的教學。想請教一個問題,就是為什麼a1 要算q1 ,k1,然後計算自己的attention score。q1 k1的物理意義是什麼呢?
我自己浅显的理解:QKV分别代表“查询标准”,“待查询指标”,和“本质”。Q是a去查询的时候,带着的查询标准。K是任何单字被查询的时候,展现出来的“待查询指标”。V是每个单字提取出来的本质。
我打个单身汉找对象的比方吧。假设一个人要找对象,他一共有十个潜在的人选(包括他自己,这里请忽略性别)。Q代表他的择偶标准(比如说外形7分,年收入100万,年龄25岁以下,房子豪华)。K代表一个目标对象表现出来的指标(比如努力打扮让外形变成了6分,装成年收入60万,显得很年轻26岁,房子装修得还不错)。V代表一个目标对象本质的指标(比如这个人本质是个外形4分的人,年收入实际只有40万,实际年龄32岁)。那么Q和K相乘,实际上就是“择偶标准”和“表现出来的样子”里的匹配程度。然后通过这个匹配程度,和每个对象的本质数值做一个加权求和,出来的结果就是找到的对象最后所包含的数值。
这里有两个点可以注意一下:第一个就是你未必最喜欢你自己。你跟自己的QK相似度未必是最高的。第二就是QKV本质其实可以是一样的。比如如果在一个平行世界里,人们的择偶标准和他表现出来的样子以及他的本质完全一致,那么QKV没有必要存在。QKV存在的意义就是模拟这类“我想要的”和“每个人表现出来的”以及“每个人实际的”样子是不一样的情况。但这里也有一个假设,就是本质上QKV乘以的都是同一个东西,所以同一个词的q,k,v不会差得太离谱,类比到相亲,你可以理解为一个外形3分的人很难装成外形9分,一个年收入10万的人很难装成年收入500万。
我的理解是这样的,Q代表你在浏览器中输入的问题,K代表浏览器返回的不同网页(回答),attention score由Q和K计算得到,代表我们对每个网页的质量判断,判断我们觉得哪个网页应该更容易找到问题的解答。最后V代表每个网页中的内容,之后由attention score和V计算得到b,代表我们最后得到最终答案
老师您好,想问下attention 的 Wq Wv Wk 是共享权重么, 因为看到tf bert 原代码 Q,K,V使用的dense 而不是conv
为什么不用原始输入向量a_1,而要使用新的v来计算最后的结果
讲得太好了!赞赞赞!
老师念dot product的时候太可爱了。。。
any chance to present in english , seems great content
硬Train一发神教教徒,支持一下
太厉害了!老师
想請問老師,作業的內容有公開嗎?
常常来温故而知新。
請問alpha' 跟 W的相乘也是element wise的相乘嗎?
请问李老师,如果权重都是共享的,那么self attention是如何做pos tagging的?因为权重共享,相同的输入应该就是相同的输出了呀,所以做pos tagging是要加窗口结合上下文作为输入吗?
这是2021年录制的还是之前的视频?
请问老师这里面的a2的key是什么,怎么求出来的?视频在24:28的位置.
想看作业的内容
想請問老師25:30 自己與自己的關聯性一定是1嗎?
李老师你好,我在您的网站上看到有2020年春季的课程,但是只找到了相关的作业和PPT,请问哪里有相关的视频呢?我在 TH-cam 上面并没有找到 2020年春季的视频
在那里可以看助教的程序?
都在這裡了: speech.ee.ntu.edu.tw/~hylee/ml/2021-spring.html
讲得好
wk和wq都是神经网络里的参数吗?
word embedding: th-cam.com/video/X7PH3NuYW0Q/w-d-xo.html (普通话)
想在請問老師27:16 的transform Wv跟前面的Wk要怎麼決定呢?謝謝~
也有同樣問題,是random initial嗎?
对
Trainable parameter.
谢谢老师
不知道哪邊有作業可以讓我練習…
我也在找...张前辈有可以分享的资源吗..万分感谢
把一些模糊地帶用古聖先賢帶過,這個說法不太好。
比看paper 容易多了。 谢谢
哪里可以看您的线上直播课呢?
李老师,Wq,Wk,Wv应该不是共享的吧,是不是讲错了?
請問你的問題是來自影片中的哪一個段落呢?
@@HungyiLeeNTU 比如:24:01的ppt,看上去不同的a_i都是和相同的W^q相乘,也就是W^q是共享的,这个是对的吗?为什么要共享,而不是比如W^{q}_{i},每个a_i对应一个不同的W呢?
@@zongtaowang7840 是共享的沒錯喔
@@HungyiLeeNTU 谢谢您的回复,但是为什么要共享呢?有什么目的吗?
您好,
如果: "W^{q}_{i},每个a_i对应一个不同的W",
我认为您可以将 "非共享W" 视作一个共享的 W^q 生成了 query, 并分别于每个query注入与 i 关联的位置信息
但 i 的位置信息可以透过 Positional Encoding 提供就好
而且 "非共享W" 会导致你的 a 长度必须固定, 那么整个数学式写下来就是等效一个"对 a序列 的全连接层FCN"了
请问Prof. Wu的影片会上传吗?
同问,谢谢!
@@hanwang4779 不好意思,我這邊不會在 YT 上公開 Prof. Wu 的影片
@@HungyiLeeNTU 很可惜了,不过还是特别感谢李老师的精彩课程!
(下)还没有update吗?
還沒有 update ,而且本週我沒有上課,所以下次 update 的時間是 3/26
神串留
听完我怀疑我是不是在学机器学习,听完感觉好简单
覺得簡單很好啊
老师,你是留学党的精神粮食😂
李老师,现在的RNN基本都被Self-Attention取代了吗?
th-cam.com/video/S27pHKBEp30/w-d-xo.html 这个视频将lstm与transformer进行了解析,最终的结论是transformer已经非常优秀了,但有些情况下仍然还是首选lstm,可以参考一下,不过没有字幕
2:39
mark
666
台灣最帥男人 只服李教授