ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
这里补充一下,用转置的方式来求的原因是因为速度会更快(向量化计算),如果有1w个样本,循环计算太慢了。而且转置的形式看起来也比较简洁。
比起这节课讲的感知机,频道主的思维方式值得我学习🥰🥰🥰
你是人工智能自学路上的大神。太棒了!
不但讲清楚了问题,还在循循善诱的介绍方法,受益匪浅~
感谢播主的精彩视频,一口气把几个视频看完,感觉终于明白了卷积神经网络代表了什么样的操作,同时还学习了播主的学习方法。
謝謝講解分享~ 但吹毛求疵一下17:33 我認為 w寫成矩陣或說向量形式,有個意義是代表他是hyperplane的法向量
超牛的视频 - 刷了不止一遍哈
这是我看神经网络教学最顺畅的专辑,非常棒🎉
挺喜欢你的视频风格, 但是16:45 处不是点积哦. 那就是矩阵乘法.
矩阵没有乘法😅,矩阵乘法实际是矩阵的transformation, 理解了点积,你就理解了矩阵乘法,矩阵乘法是矩阵向量坐标变换,从一个矩阵维度空间转换到另一个矩阵空间
解答旨在简洁
第一性原理的思考方式。
讲的非常好, 赞一个
感謝知識分享
真的很棒的视频,博主厉害
行乘以列,点积所以必须表达成转置矩阵和矩阵相乘的写法,否则确实书写不方便
博主确实厉害👍
你说的有道理
表达能力好
说的很好,大受启发,我是一个普通本科生
后面让我有点明白了为什么要深度学习
太牛了,佩服
類神經網路是一種數學函式多層演算法, 絕非模擬大腦 神經元實體網路的運作機制🎉由於此一函式多層演算法用圖表示, 類似大腦神經元實體網路圖,故取名為「類神經網路」❤它也可以取名為 「AI 教父辛頓函式多層演算法」💯
Artificial Nurual Network :Why Multi-Layer,this is a question ⁉️Solutionsexist or not exist,this is a question ⁉️
讲的很好,以后的学生有福了,如果学校老师讲不清楚,就来看这
讲的很明白,但是有个问题,那个多层感知机,为什么叠加后是3种情况?
异或那个吗?是不是把x1与x2 和 非x1与非x2 合并?我耶没听懂
因为上面两个感知机的输出结果有三种啊,(0,0),(0,1),(1,0),所以对于第三个感知机来说,就只有三个输入了。
❤thanks, you save my life
真棒👍
这个视频展示了学霸是怎么练成的。
有被数学证明出来吗?有的话还会被叫黑箱炼金术吗😂
up 应该去搞讲座
f(n) : 不要用 n,用其它英文字元,例如 : p 比較不會導至誤解 🎉
懂了
讲的太好了~
感觉不重要的和重复的话有点多了? 不就是个非线性的事吗,从线性说起,再讲区别就足够了。而且从回归讲起会容易理解很多。
错误的地方太多了,用阶跃函数实际上已经能实现非线性了
而且也不是多对一,拜托
你应该没有听懂
博主可以去做 机器学习 的研究了, 而不是 科普
看王木头这钻研能力, 当时为啥只考上二本? 你高中干啥了?
首先,高中的我的确还没有开窍。然后我觉得还有一个因素,我喜欢专研,所以总是会有各种各样的问题。我在一个四线城市接受教育,没有资源帮助我解答这些问题,所以这些心中的问题不只没能帮助我学习,反而还成了负担。
好的老师很重要,很多人本身有天赋,但是被周围的环境(家长、老师、生活环境)误导甚至圈禁了思维、性格。有的人出身在教师世家,那么这种知识资源从小就流水一样,当然占优势了。
@@wkaing 有没有可能是因为偏门?对理性思考的科目感兴趣,对政治历史文学等方面不感兴趣😄
厲害厲害,我自己看書完全不懂
我高中也是大专,父亲和姐姐都是博士,妈也是医生,木头估计和我一样高中喜欢干自己喜欢干的事,没有用心读书,关键中国教材不好,反人性,我绝对同意
这里补充一下,用转置的方式来求的原因是因为速度会更快(向量化计算),如果有1w个样本,循环计算太慢了。而且转置的形式看起来也比较简洁。
比起这节课讲的感知机,频道主的思维方式值得我学习🥰🥰🥰
你是人工智能自学路上的大神。太棒了!
不但讲清楚了问题,还在循循善诱的介绍方法,受益匪浅~
感谢播主的精彩视频,一口气把几个视频看完,感觉终于明白了卷积神经网络代表了什么样的操作,同时还学习了播主的学习方法。
謝謝講解分享~ 但吹毛求疵一下
17:33 我認為 w寫成矩陣或說向量形式,有個意義是代表他是hyperplane的法向量
超牛的视频 - 刷了不止一遍哈
这是我看神经网络教学最顺畅的专辑,非常棒🎉
挺喜欢你的视频风格, 但是16:45 处不是点积哦. 那就是矩阵乘法.
矩阵没有乘法😅,矩阵乘法实际是矩阵的transformation, 理解了点积,你就理解了矩阵乘法,矩阵乘法是矩阵向量坐标变换,从一个矩阵维度空间转换到另一个矩阵空间
解答旨在简洁
第一性原理的思考方式。
讲的非常好, 赞一个
感謝知識分享
真的很棒的视频,博主厉害
行乘以列,点积所以必须表达成转置矩阵和矩阵相乘的写法,否则确实书写不方便
博主确实厉害👍
你说的有道理
表达能力好
说的很好,大受启发,我是一个普通本科生
后面让我有点明白了为什么要深度学习
太牛了,佩服
類神經網路是一種數學函式多層演算法,
絕非模擬大腦 神經元實體網路的運作機制🎉
由於此一函式多層演算法用圖表示, 類似大腦神經元實體網路圖,故取名為「類神經網路」❤
它也可以取名為 「AI 教父辛頓函式多層演算法」💯
Artificial Nurual Network :
Why Multi-Layer,
this is a question ⁉️
Solutions
exist or not exist,
this is a question ⁉️
讲的很好,以后的学生有福了,如果学校老师讲不清楚,就来看这
讲的很明白,但是有个问题,那个多层感知机,为什么叠加后是3种情况?
异或那个吗?是不是把x1与x2 和 非x1与非x2 合并?我耶没听懂
因为上面两个感知机的输出结果有三种啊,(0,0),(0,1),(1,0),所以对于第三个感知机来说,就只有三个输入了。
❤thanks, you save my life
真棒👍
这个视频展示了学霸是怎么练成的。
有被数学证明出来吗?有的话还会被叫黑箱炼金术吗😂
up 应该去搞讲座
f(n) : 不要用 n
,用其它英文字元,例如 : p 比較不會導至誤解 🎉
懂了
讲的太好了~
感觉不重要的和重复的话有点多了? 不就是个非线性的事吗,从线性说起,再讲区别就足够了。而且从回归讲起会容易理解很多。
错误的地方太多了,用阶跃函数实际上已经能实现非线性了
而且也不是多对一,拜托
你应该没有听懂
博主可以去做 机器学习 的研究了, 而不是 科普
看王木头这钻研能力, 当时为啥只考上二本? 你高中干啥了?
首先,高中的我的确还没有开窍。然后我觉得还有一个因素,我喜欢专研,所以总是会有各种各样的问题。我在一个四线城市接受教育,没有资源帮助我解答这些问题,所以这些心中的问题不只没能帮助我学习,反而还成了负担。
好的老师很重要,很多人本身有天赋,
但是被周围的环境(家长、老师、生活环境)误导甚至圈禁了思维、性格。
有的人出身在教师世家,那么这种知识资源从小就流水一样,当然占优势了。
@@wkaing 有没有可能是因为偏门?对理性思考的科目感兴趣,对政治历史文学等方面不感兴趣😄
厲害厲害,我自己看書完全不懂
我高中也是大专,父亲和姐姐都是博士,妈也是医生,木头估计和我一样高中喜欢干自己喜欢干的事,没有用心读书,关键中国教材不好,反人性,我绝对同意