めっちゃありがたり。ありがたすぎる、英語版見てる時からずっとこの音声付き日本語訳を待っていました、本当に嬉しい ありがとうございます
5,6年前に深層学習の分野に携わっていたのですが、このチャンネルをその時に拝見したかったです。
当時の私に届けることはできませんが、今の私はとても興味深く拝見させていただきました。
とんでもねぇ複雑なもんをすげぇ簡単に教えて貰ってるのに、それでもすげぇ難しいからちゃんと理解するのはほんとに大変なんだろうなって思う
ましてや開発した人はバケモンやろ
ニューロンのあの関数そういう考えで作られていたのか
非常にわかりやすく作られていて助かる
終わり方がメタすぎて面白い
Programing言語で数式を書けば数学に疎くても理解できる内容ではあるんですが、
数式で脱落している人は多いでしょうね。
あと、重みとは丸と丸をつなぐ線分のことなんですが、理解できてない人もいそうな気がします。
実際0層目(入力)から1層目を出す式はこんなもので極めて簡単です。
node // 動画上の◯
weight // 動画上の線であり重みであり記憶
node[1][0] = Sigmoid( bias + weight[0][0][0] * node[0][0] + weight[0][0][1] * node[0][1] + weight[0][0][2] * node[0][2] + ・・・ + weight[0][0][N] * node[0][N] )
node[1][1] = Sigmoid( bias + weight[0][1][0] * node[0][0] + weight[0][1][1] * node[0][1] + weight[0][1][2] * node[0][2] + ・・・ + weight[0][1][N] * node[0][N] )
・
・
・
オチがチャンネル登録への誘導になってるの感動した
なめらかなシグモイドより閾があるReLUの方が上手くいくのちょっと意外性あって良い
常々表現の巧さに感嘆させられていたが
今回は加えてカリキュラムの巧さに感動を覚えた
「ニューラルネットワーク」大きな言葉のブラックボックスに隠された原理をわかりやすく説明しながら
その莫大で不可能とも思える計算量を解決する発想は過去の線形代数の動画にあったという
理系学生全員にこの動画の面白さが伝わってほしいという強い情動に突き動かされる
しかし
v (ヴイ)アルファベット
ν (ニュー)ギリシャ文字
の見分けができる気がしない
過去みてきたどの動画よりもわかりやすい。
ずっとイメージしづらかったことがすっと入りました。
ありがとうございます!!!
マジでこの世界ってすげぇなぁ。。。
めっちゃ良いタイミングで動画きた!!
勉強しないといけなかったんで助かります
このチャンネルの線形代数のChapter1でベクトルはコンピュータサイエンスの視点では数のリストであるって言ってたのがこういうことね。伏線が回収されたみたいで嬉しい
ディープラーニングがより進化したら、ロボットじゃないこと証明するぐにゃぐにゃ文字入力意味なくなっちゃうよな
図形認識においては、ピクセル認識ではなく、ベクトル認識させる事は出来ない物か・・・
そんな風に夢想する昨今でございます。
ちょうど今日の昼間にこれの英語版を字幕で観てたとこ! めっちゃタイムリー! 日本語版ありがたい!
何これ、マジで死ぬほどおもしろい。この動画の構成を考えた人は天才。
線形代数のときもそうだけど、
このチャンネル履修終わったあとに出るんだけどw
一年生が羨ましい。
深層学習はオライリーの書籍がすごくオススメ。
実際にこの動画で扱っている手書き数字のデータセットを使ってモデル構築・予測するところまでTensorFlowを使って理論立てて実装できます!
TensorFlow 公式のチュートリアルで十分な気がするのだけど…
そのほうが無料でできるし、Google Colabのノートブックも用意されていてコピーして容易に動かせたりする
アニメが非常にシンプルで、非常に分かりやすい!
GPUが売れるのも頷ける。
正直すごくまわりくどく説明してるように感じる。
これが日本語訳で観れるありがたさ……
やはり説明が良い。
あと声がいい。
自分も独学で勉強してるのですが
ものすごくわかりやすいです
めちゃんこ面白い
次回動画がめちゃ楽しみです、ありがとうございます!!
勉強していくと点と線が繋がって急に理解できることがあるけど、これはニューラルネットワークをイメージするとすごく納得いきました。
そしてSigmoid関数ではなくてReLUの方が上手く行くのも、実際の脳の仕組みと近いからなんだろうなと感じました。
まだ、東京大学のコンビニで暗記パンって売っているの?本郷校舎の前にある黄色い海鮮丼屋さんもあるのかな?おいしいよね。いつも楽しい動画をありがとう。
このシリーズやってほしかった!!
動画一覧画面でスクロールすると、この動画のサムネだけ、スクロール止まった瞬間に動き出すように見える。なんかの錯視?
このチャンネル、中身も興味深いけど声とBGMがほんとに心地よくて好き
12:21
誤って5億年ボタンを押してしまった際はこれで時間を潰そうと思いました
これの逆ならなんとなく知ってたけどこっちのやつは初めてみました
でもいま解説するなら逆が知りたい気もする
EDITが非常にSEXY
任意の非線形関数は線形関数の線形結合で近似できるということかと思ってたが、実際の動きに落とすとこんな感じなのかなと何となく思ってる
次が待てない方はSONYがTH-camで出しているニューラルネットワークの動画がおすすめ
ReLUではアクティベーションを0〜1に押し込めないように思えるのですが問題ないのでしょうか?
また、ReLUの方が計算コストが低そうですが、シグモイド関数よりも後に使われ始めたのはなぜでしょうか?
実際に ReLU を使ってみると精度がいいので問題がないことがわかると思う。
シグモイド関数よりも後に使われ始めた理由は、単に思いつかなかっただけかな。
過去の人達も「なんとなく、活性化関数は0〜1に押し込めたほうがいいと思うからシグモイド!」と思い込んでいたのかもね。
その思い込みによって、無限に大きくなる可能性のある ReLU を思いつかなかったとかかも。
シグモイド関数は滑らか! 微分できる。
ReLUは滑らかじゃない! 微分できない! 場合分けがいる。= めんどい
補足…ニューラルネットワーク(NN)は学習するごとに毎回ウエイト(バイアス含む)を変えます。そして誤差を少なくしていきます。次回のNNでは今回よりも誤差を少なくするために、ウエイトを大きくするか、小さくするか、の選択をしなければいけません。この選択肢は、誤差の傾きを見ることによって、決定できます。このとき微分が必要になります。
オライリーの本でがっつり勉強したけどこれ見てから取り掛かったらもっと理解早かっただろうな。まじで良い動画。
オススメに出てくるようにチャンネル登録してねだってさ!
キザだわ〜〜〜!!
何が凄いって、ニューラルネットワークの仕組みが自然に人間の脳の中に作られたということだな。
こんなにも高度な「チャンネル登録おねがいします」初めて見た
つまりはアキネイターの魔人がいっぱい居るようなものなのかな
この丸にかかるケイセンの重みづけだったかなが学習理論かなって思ったの覚えてます。
やっぱり日本語訳あるとわかりやすい
ニューラルネットワーク…
昔、LONってあったよね
手書き数字の分類や平均顔の話は、初めて論文読んだ時驚きましたねえ…
学生時代に出会いたかった…!
素晴らしい動画!
ゼロつく1から4まで読んだら大分理解できるぞ
書き順を想像できるプログラムができたら簡単な話なのですがね
配信ありがとう👍
Quote ´When your brain is smarter than yourself´
細かく丁寧な解説で分かりやすくてありがとう😊🎉
これの日本語版見たかったから助かる
チャンネル登録のくだりメタすぎて草
ここまでわかりやすいと、SIMDとか並列処理の話もしてほしくなりますね...
楽しみがひとつ増えた
今まで見たニューラルネットワークの説明で一番わかりやすかったです。ありがとうございます
活性化関数が何をしているのか、よく分かりました。ありがとうございます。
最後のオチの説得力
プログラムに落とし込みたかったのでめちゃくちゃ勉強になりました。
待ってました!
研究室時代に出して欲しかった笑笑
未来の教科書
説明が美しい、いつも勉強になります
これ気になってたので助かりました!
この動画、日本語化待ってました!!
他の動画もだけど本当に分かりやすい
いいねーさいけう
メモ 7:30
ナレーションが心地よい
おもしろい
ほんと助かる
oh😊
なんてわかりやすさ、、、、、😮
続きが気になりすぎる
待ってました!!
これはマジで助かる
30年以上前から研究開発されていたバックプロパゲーションだな、いつの間にかディープラーニングと呼び名が変わったが😪
当時はハードウェアがショボくて処理速度が遅く、中間層1層だけの3層で、それでも画像処理なんかに応用した特注品を作ってた会社もいくつかあったが🤭
ここ数年は処理速度も当時とは比較にならんほど上がり扱えるデータ量も飛躍的に増えて、中間層を増やしてもそこそこの時間で学習させられるようになり、応用実用の目途が立ってきたということだな、やれやれ😮💨
しかし、どうやって入力に対する回答を導き出しているのかが分からん不気味さは無くならんし、突拍子もない頓珍漢な回答を出してくることもある、それは良いが有得そうで間違った答えを出されるのがかなわんな、例えば医療AIで間違った診断を出したりなど、まだまだ最終判断には(専門の)人間が必要だな😩
計算とかめっちゃ苦手だけど、考えめっちゃ面白い
35年ほど前にバックプロパゲーションが話題になりました。パーセプトロンが線形のパタン認識しかできなかったものが非線形でも認識できるようになりました。画像認識では、パタン認識以前の前処理が最も困難です。例えば数字認識でしたら、20桁の数字を1数字づつ分割するような処理です。明瞭な画像でしたら古典的なセグメンテーションで可能ですが、コントラストが悪く数字同士が接触しているような場合です。ディープラーニングは最適化手法の一種ですが、やはりGAの方が能力は上だと思います。特徴抽出をNNに行わせるのは邪道と考えます。画像認識研究歴45年、査読付原著論文250編を発行している科学者の戯言です。
ニューラルネットワークについて勉強しようと思ったけど、冒頭でマウント取ってきて見るのやめた
Japanをみてから、もとの動画みにいくと
英語の勉強にもなる…素晴らしきかなこのチャンネル
どう?英語の勉強捗ってる?