ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
老師講得真好,這是我看過最好的PCA講解影片了!
中国人将给中国人听就是好理解的很,唯一一个讲的最清晰的PCA
学了另一门机器学习的关于主成分的课程,再看您的视频,似乎理解更加深刻了。
讲的确实好!
通过这个视频我明白了为什么pca在进行维度变换时,用的是矩阵的协方差矩阵的特征向量和特征根,因为是特征向量构成的矩阵才能使得原始数据变换后方差最大。拉格朗日乘子那块儿不明白,但是整体上明白pca的大体原理了,谢谢。推荐给那些对pca为什么要求原始数据协方差矩阵的特征值和特征向量不太清楚的同学。
讲的太好了
1. 样本协方差和样本方差的计算式中,分母应该是n-1。只有n-1才是无偏估计。2. 协方差应该是一个矩阵,任意两两变量之间(或者说数据的各个维度之间)的协方差都需要计算。当只有两个变量时,也许用一个数可以表达,因为除了对角线的方差外,只需要两个变量之间的协方差,就知道了整个协方差矩阵。但是,当随机变量个数(也就是样本的维度)大于2时,一个数是无法表达整个协方差矩阵的。协方差矩阵应当是一个p x p的矩阵,其中p为随机变量的个数。下面附上表格中数据的计算程序及输出结果:import numpy as npx_1 = np.array([1, 3, 6, 10, 15, 21])x_2 = np.array([7, 11, 17, 25, 35, 47])x_1_mean = np.mean(x_1)x_2_mean = np.mean(x_2)print(x_1_mean, x_2_mean)# 9.333333333333334 23.666666666666668x_1_var = np.var(x_1, ddof=1)x_2_var = np.var(x_2, ddof=1)print(x_1_var, x_2_var)# 57.86666666666666 231.46666666666664x_1_x_2_covar = np.cov(x_1, x_2)print(x_1_x_2_covar)# [[ 57.86666667 115.73333333]# [115.73333333 231.46666667]]
讲得很好,一点不多一点不少
文科留学生选修学这个没听太懂,用中文再听一遍就有点搞清楚怎么回事了。虽然还是感觉很难,但这个视频确实很有帮助,很感谢。语速有点慢,1.25倍速听起来正好。
老师这口音太性感了. 相shi或不相似
老师没一个细节都讲的很清楚,这波课程要马克了!
这错别字
@@xingyusu4320 主要看意思嘛
@@beacon5173 ✊🏻
讲得太棒了 没有不点赞的理由
principal和principle读音虽然相近,意思不一样吧?
到后面有点听不懂了。。。。。
我没有听懂,有时间再看一遍吧~
哎,才知道啥是协方差
老師講得真好,這是我看過最好的PCA講解影片了!
中国人将给中国人听就是好理解的很,唯一一个讲的最清晰的PCA
学了另一门机器学习的关于主成分的课程,再看您的视频,似乎理解更加深刻了。
讲的确实好!
通过这个视频我明白了为什么pca在进行维度变换时,用的是矩阵的协方差矩阵的特征向量和特征根,因为是特征向量构成的矩阵才能使得原始数据变换后方差最大。拉格朗日乘子那块儿不明白,但是整体上明白pca的大体原理了,谢谢。推荐给那些对pca为什么要求原始数据协方差矩阵的特征值和特征向量不太清楚的同学。
讲的太好了
1. 样本协方差和样本方差的计算式中,分母应该是n-1。只有n-1才是无偏估计。
2. 协方差应该是一个矩阵,任意两两变量之间(或者说数据的各个维度之间)的协方差都需要计算。当只有两个变量时,也许用一个数可以表达,因为除了对角线的方差外,只需要两个变量之间的协方差,就知道了整个协方差矩阵。但是,当随机变量个数(也就是样本的维度)大于2时,一个数是无法表达整个协方差矩阵的。协方差矩阵应当是一个p x p的矩阵,其中p为随机变量的个数。
下面附上表格中数据的计算程序及输出结果:
import numpy as np
x_1 = np.array([1, 3, 6, 10, 15, 21])
x_2 = np.array([7, 11, 17, 25, 35, 47])
x_1_mean = np.mean(x_1)
x_2_mean = np.mean(x_2)
print(x_1_mean, x_2_mean)
# 9.333333333333334 23.666666666666668
x_1_var = np.var(x_1, ddof=1)
x_2_var = np.var(x_2, ddof=1)
print(x_1_var, x_2_var)
# 57.86666666666666 231.46666666666664
x_1_x_2_covar = np.cov(x_1, x_2)
print(x_1_x_2_covar)
# [[ 57.86666667 115.73333333]
# [115.73333333 231.46666667]]
讲得很好,一点不多一点不少
文科留学生选修学这个没听太懂,用中文再听一遍就有点搞清楚怎么回事了。虽然还是感觉很难,但这个视频确实很有帮助,很感谢。语速有点慢,1.25倍速听起来正好。
老师这口音太性感了. 相shi或不相似
老师没一个细节都讲的很清楚,这波课程要马克了!
这错别字
@@xingyusu4320 主要看意思嘛
@@beacon5173 ✊🏻
讲得太棒了 没有不点赞的理由
principal和principle读音虽然相近,意思不一样吧?
到后面有点听不懂了。。。。。
我没有听懂,有时间再看一遍吧~
哎,才知道啥是协方差