ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
我的全网第一男神!表白宏毅老师!
老师讲的真好,我的深度学习启蒙老师,表白表白!!!!!!
全台最帥教授,只服李教授
谢谢李老师!最生动,最易懂的AI课程。
华人里最牛逼的深度学习老师
只是讲课讲的最牛逼
feature normaliaztion 是可以想成統計上的Z轉換嗎?
13:14實際上應該是如何運算?產生了滿多困惑,想詳細了解,請解惑?
表白老师,讲的太好了,什么时候上字幕
The diagram on page 7 is better described as a computation graph than a (neural) network.
老师,训练结束以后,测试数据要怎样输入到网络,需要normalization吗,但是每个batch的u与sigma不一样啊是测试数据的u和sigma也是一直在做moving average吗
感觉也只能这样
请问老师助教讲作业的录影有机会放出来嘛?认真做了作业希望有点反馈
我也是,很多疑惑没有人解答😭
好像李宏毅老师主页上有
@@ChenyuZheng-y5m 嗯嗯 我看到助教讲评作业的ppt了 不过我是想问有没有讲优秀作业的office hour 😂讲讲怎么过strong baseline
我一直看不懂 等高图,请问怎么看,哪里有教程?谢谢🙏
想請問在第七頁的ppt上,老師把所有z的vector一起算平均和標準差,之後每個z的element在標準化,我想請問為什麼不能再跟normilize x的地方一樣,都個別標準化呢?
x ̃1 代表着一个data
1是上标不是特征的一维,而是一个特征向量
我也有一樣的問題 他在處理x標準化 跟 處理z標準化的方式好像是不一樣的
@@hsin3872 处理方式应该是一样的吧,都需要有一个batch,求出对应是向量的μ和Σ
@@deadfire7973好像不太一样,对x的处理没有考虑batch的因素,是统一了x的不同维度的范围,对z的话从课件里看已经没有这个功能了,z不同维度的范围并没有统一,更像是统一了不同batch下z的范围
请问input输入时候的标准化和训练时每一层的标准化是一回事儿吗?似乎第4页的是针对某一个特征值的标准化,但是到了第5页,就变成了对训练资料不同特征的标准化,这里有些困惑。
懂了,原来是要一次输入一个batch的数据,然后对每一个特征做标准化。听到后面讲明白了
@@cunningshark 我也纠结了好久是针对输入数据的行维度还是feature维度做normalization
讲的真好
10:00請問x1、x2、x3算是一個batch嗎?
x1x2x3构成了一个数据条目,若干数据条目里的构成一个batch,对一个batch里所有的「x1x2x3」normalization就是BatchNorm
15:16请问这里z1,z2,z3为什么会改变,不是training sample吗?
z不是原始的sample
z是中间层结果,学习阶段参数改变z就改变
老師你是我的神
哈哈,更高一级应該是佛
好像沒看到Batch Normalization 的slide@@?是我眼花沒找到嗎>
description 里就有
讲得非常好👍
点赞
viagra -> serendipitous
研一
我的全网第一男神!表白宏毅老师!
老师讲的真好,我的深度学习启蒙老师,表白表白!!!!!!
全台最帥教授,只服李教授
谢谢李老师!最生动,最易懂的AI课程。
华人里最牛逼的深度学习老师
只是讲课讲的最牛逼
feature normaliaztion 是可以想成統計上的Z轉換嗎?
13:14
實際上應該是如何運算?
產生了滿多困惑,
想詳細了解,
請解惑?
表白老师,讲的太好了,什么时候上字幕
The diagram on page 7 is better described as a computation graph than a (neural) network.
老师,训练结束以后,测试数据要怎样输入到网络,需要normalization吗,但是每个batch的u与sigma不一样啊
是测试数据的u和sigma也是一直在做moving average吗
感觉也只能这样
请问老师助教讲作业的录影有机会放出来嘛?认真做了作业希望有点反馈
我也是,很多疑惑没有人解答😭
好像李宏毅老师主页上有
@@ChenyuZheng-y5m 嗯嗯 我看到助教讲评作业的ppt了 不过我是想问有没有讲优秀作业的office hour 😂讲讲怎么过strong baseline
我一直看不懂 等高图,请问怎么看,哪里有教程?谢谢🙏
想請問在第七頁的ppt上,老師把所有z的vector一起算平均和標準差,之後每個z的element在標準化,我想請問為什麼不能再跟normilize x的地方一樣,都個別標準化呢?
x ̃1 代表着一个data
1是上标不是特征的一维,而是一个特征向量
我也有一樣的問題 他在處理x標準化 跟 處理z標準化的方式好像是不一樣的
@@hsin3872 处理方式应该是一样的吧,都需要有一个batch,求出对应是向量的μ和Σ
@@deadfire7973好像不太一样,对x的处理没有考虑batch的因素,是统一了x的不同维度的范围,对z的话从课件里看已经没有这个功能了,z不同维度的范围并没有统一,更像是统一了不同batch下z的范围
请问input输入时候的标准化和训练时每一层的标准化是一回事儿吗?似乎第4页的是针对某一个特征值的标准化,但是到了第5页,就变成了对训练资料不同特征的标准化,这里有些困惑。
懂了,原来是要一次输入一个batch的数据,然后对每一个特征做标准化。听到后面讲明白了
@@cunningshark 我也纠结了好久是针对输入数据的行维度还是feature维度做normalization
讲的真好
10:00
請問x1、x2、x3算是一個batch嗎?
x1x2x3构成了一个数据条目,若干数据条目里的构成一个batch,对一个batch里所有的「x1x2x3」normalization就是BatchNorm
15:16
请问这里z1,z2,z3为什么会改变,不是training sample吗?
z不是原始的sample
z是中间层结果,学习阶段参数改变z就改变
老師你是我的神
哈哈,更高一级应該是佛
好像沒看到Batch Normalization 的slide@@?
是我眼花沒找到嗎>
description 里就有
讲得非常好👍
点赞
viagra -> serendipitous
研一
讲的真好