ニューラルネットワークの仕組み | Chapter 1, 深層学習(ディープラーニング)

แชร์
ฝัง
  • เผยแพร่เมื่อ 4 พ.ย. 2024

ความคิดเห็น • 123

  • @jumnn
    @jumnn ปีที่แล้ว +17

    5,6年前に深層学習の分野に携わっていたのですが、このチャンネルをその時に拝見したかったです。
    当時の私に届けることはできませんが、今の私はとても興味深く拝見させていただきました。

  • @pascal_Boy
    @pascal_Boy ปีที่แล้ว +76

    Japanをみてから、もとの動画みにいくと
    英語の勉強にもなる…素晴らしきかなこのチャンネル

    • @ano5041
      @ano5041 ปีที่แล้ว +3

      どう?英語の勉強捗ってる?

  • @Ryon_P329
    @Ryon_P329 ปีที่แล้ว +17

    とんでもねぇ複雑なもんをすげぇ簡単に教えて貰ってるのに、それでもすげぇ難しいからちゃんと理解するのはほんとに大変なんだろうなって思う
    ましてや開発した人はバケモンやろ

  • @広河長綺
    @広河長綺 ปีที่แล้ว +226

    「チャンネル登録してね」ってありとあらゆるyoutubeチャンネルで聞いてきたけど、この動画が一番オシャレに言ってると思う

    • @whiterabbit5410
      @whiterabbit5410 ปีที่แล้ว +21

      このコメントがオシャレすぎて動画を最後まで見る気になった。

    • @mizuchin36
      @mizuchin36 5 หลายเดือนก่อน

      確かにです🤣

  • @wswsan
    @wswsan ปีที่แล้ว +51

    ニューロンのあの関数そういう考えで作られていたのか
    非常にわかりやすく作られていて助かる

  • @siodrymenu
    @siodrymenu 20 วันที่ผ่านมา +1

    このチャンネルで東京大学が存在することに初めて感謝しました。有志の学生さんたち本当にありがとう!!

  • @Rhinecanthus
    @Rhinecanthus ปีที่แล้ว +33

    めっちゃありがたり。ありがたすぎる、英語版見てる時からずっとこの音声付き日本語訳を待っていました、本当に嬉しい ありがとうございます

  • @nacuraion
    @nacuraion ปีที่แล้ว +26

    常々表現の巧さに感嘆させられていたが
    今回は加えてカリキュラムの巧さに感動を覚えた
    「ニューラルネットワーク」大きな言葉のブラックボックスに隠された原理をわかりやすく説明しながら
    その莫大で不可能とも思える計算量を解決する発想は過去の線形代数の動画にあったという
    理系学生全員にこの動画の面白さが伝わってほしいという強い情動に突き動かされる

  • @mtaka84219
    @mtaka84219 ปีที่แล้ว +4

    何これ、マジで死ぬほどおもしろい。この動画の構成を考えた人は天才。

  • @g5161431
    @g5161431 ปีที่แล้ว +10

    過去みてきたどの動画よりもわかりやすい。
    ずっとイメージしづらかったことがすっと入りました。
    ありがとうございます!!!

  • @人浪-t6q
    @人浪-t6q ปีที่แล้ว +9

    オチがチャンネル登録への誘導になってるの感動した

  • @るんるん-u5e
    @るんるん-u5e 9 หลายเดือนก่อน +5

    Programing言語で数式を書けば数学に疎くても理解できる内容ではあるんですが、
    数式で脱落している人は多いでしょうね。
    あと、重みとは丸と丸をつなぐ線分のことなんですが、理解できてない人もいそうな気がします。
    実際0層目(入力)から1層目を出す式はこんなもので極めて簡単です。
    node // 動画上の◯
    weight // 動画上の線であり重みであり記憶
    node[1][0] = Sigmoid( bias + weight[0][0][0] * node[0][0] + weight[0][0][1] * node[0][1] + weight[0][0][2] * node[0][2] + ・・・ + weight[0][0][N] * node[0][N] )
    node[1][1] = Sigmoid( bias + weight[0][1][0] * node[0][0] + weight[0][1][1] * node[0][1] + weight[0][1][2] * node[0][2] + ・・・ + weight[0][1][N] * node[0][N] )


  • @OMAE_OCHICHUKEYO
    @OMAE_OCHICHUKEYO ปีที่แล้ว +5

    このチャンネル、中身も興味深いけど声とBGMがほんとに心地よくて好き

  • @訓練された鶏
    @訓練された鶏 ปีที่แล้ว +18

    大学でほぼこれと同じ数字認識のAI学習(OCR)を、jupyter上でコード書いて学習させて試すって一連の講義をうけたけど
    正直言われた通りやるだけで、間に何が起こってるかわからなかったわ
    これは非常にわかりやすい

    • @ano5041
      @ano5041 ปีที่แล้ว

      わからない状態でもとりあえず手を動かすという学習方法は、生徒が受け身の姿勢だとうまくいかないからね
      自分から学ぼうという姿勢が生徒自身にないとうまくいかない

    • @ussee-ussee-usseewa
      @ussee-ussee-usseewa ปีที่แล้ว +4

      @@ano5041でもこの人は実際に興味を持ってここに来ているけど授業では分からなかったから教える側が悪いと思う

    • @ano5041
      @ano5041 ปีที่แล้ว +5

      @@ussee-ussee-usseewa 「正直言われた通りやるだけで、間に何が起こってるかわからなかった」という経験が興味を持つきっかけになっている可能性もある

  • @umi9217
    @umi9217 ปีที่แล้ว +9

    めっちゃ良いタイミングで動画きた!!
    勉強しないといけなかったんで助かります

  • @wahaha-_-
    @wahaha-_- ปีที่แล้ว +68

    これ丁度知りたかったからめっちゃ助かる

    • @Germogisan
      @Germogisan ปีที่แล้ว +2

      俺も丁度この事を夢で考えてから目覚めたから助かる

    • @ano5041
      @ano5041 ปีที่แล้ว +1

      俺は一年ほど前から知りたかったけど助かってる

    • @YS-rs4cp
      @YS-rs4cp ปีที่แล้ว +2

      ちょうど切らしてた

    • @ラブカ-d7g
      @ラブカ-d7g ปีที่แล้ว +5

      俺も大学院でニューラルネットワーク使ってるから助かる(マジで)

    • @志田ちゃん志田ちゃん
      @志田ちゃん志田ちゃん ปีที่แล้ว +3

      大学院でやってるのに
      この動画で助かってるの
      修了できるか不安

  • @ptptsoushu
    @ptptsoushu 11 หลายเดือนก่อน

    今まで見たニューラルネットワークの説明で一番わかりやすかったです。ありがとうございます

  • @ta-fw6gx
    @ta-fw6gx ปีที่แล้ว +2

    ちょうど今日の昼間にこれの英語版を字幕で観てたとこ! めっちゃタイムリー! 日本語版ありがたい!

  • @フルスイング吉田-m2z
    @フルスイング吉田-m2z ปีที่แล้ว +8

    マジでこの世界ってすげぇなぁ。。。

  • @256yayo
    @256yayo ปีที่แล้ว +2

    やはり説明が良い。
    あと声がいい。

  • @葵一
    @葵一 ปีที่แล้ว +2

    次回動画がめちゃ楽しみです、ありがとうございます!!

  • @wd.eclairgreen
    @wd.eclairgreen 11 หลายเดือนก่อน +3

    このチャンネルの線形代数のChapter1でベクトルはコンピュータサイエンスの視点では数のリストであるって言ってたのがこういうことね。伏線が回収されたみたいで嬉しい

  • @とっぽー
    @とっぽー 4 หลายเดือนก่อน +1

    これが日本語訳で観れるありがたさ……

  • @Rhinecanthus
    @Rhinecanthus ปีที่แล้ว +14

    終わり方がメタすぎて面白い

  • @user-slashed-O
    @user-slashed-O ปีที่แล้ว +1

    これの日本語版見たかったから助かる

  • @ちゃんねる坊や
    @ちゃんねる坊や 7 หลายเดือนก่อน

    学生時代に出会いたかった…!
    素晴らしい動画!

  • @yu-qf8pq
    @yu-qf8pq ปีที่แล้ว +5

    なめらかなシグモイドより閾があるReLUの方が上手くいくのちょっと意外性あって良い

  • @あき缶-j2o
    @あき缶-j2o ปีที่แล้ว +1

    楽しみがひとつ増えた

  • @sandvinyl
    @sandvinyl ปีที่แล้ว +1

    細かく丁寧な解説で分かりやすくてありがとう😊🎉

  • @eggmanx100
    @eggmanx100 ปีที่แล้ว

    何が凄いって、ニューラルネットワークの仕組みが自然に人間の脳の中に作られたということだな。

  • @shiro_teacher
    @shiro_teacher ปีที่แล้ว

    説明が美しい、いつも勉強になります

  • @鎌田英明-c6f
    @鎌田英明-c6f ปีที่แล้ว +1

    配信ありがとう👍

  • @男団子-x5t
    @男団子-x5t ปีที่แล้ว

    オライリーの本でがっつり勉強したけどこれ見てから取り掛かったらもっと理解早かっただろうな。まじで良い動画。

  • @カメレオン-h9s
    @カメレオン-h9s ปีที่แล้ว +2

    自分も独学で勉強してるのですが
    ものすごくわかりやすいです

  • @wa-i
    @wa-i ปีที่แล้ว

    この動画、日本語化待ってました!!

  • @Chisataki-is-god
    @Chisataki-is-god ปีที่แล้ว +1

    待ってました!

  • @mizuchin36
    @mizuchin36 5 หลายเดือนก่อน

    勉強していくと点と線が繋がって急に理解できることがあるけど、これはニューラルネットワークをイメージするとすごく納得いきました。
    そしてSigmoid関数ではなくてReLUの方が上手く行くのも、実際の脳の仕組みと近いからなんだろうなと感じました。

  • @kabo2767
    @kabo2767 ปีที่แล้ว +2

    アニメが非常にシンプルで、非常に分かりやすい!
    GPUが売れるのも頷ける。

  • @torikkuru
    @torikkuru ปีที่แล้ว

    プログラムに落とし込みたかったのでめちゃくちゃ勉強になりました。

  • @mk.248
    @mk.248 ปีที่แล้ว +1

    最後のオチの説得力

  • @十分性の確認
    @十分性の確認 ปีที่แล้ว +4

    ナレーションが心地よい

  • @t.s.868
    @t.s.868 ปีที่แล้ว

    これ気になってたので助かりました!

  • @おこめ-q8e
    @おこめ-q8e ปีที่แล้ว

    他の動画もだけど本当に分かりやすい

  • @sankaku813
    @sankaku813 ปีที่แล้ว

    活性化関数が何をしているのか、よく分かりました。ありがとうございます。

  • @みかさ-f1h
    @みかさ-f1h ปีที่แล้ว

    これはマジで助かる

  • @alogarithm
    @alogarithm ปีที่แล้ว +20

    深層学習はオライリーの書籍がすごくオススメ。
    実際にこの動画で扱っている手書き数字のデータセットを使ってモデル構築・予測するところまでTensorFlowを使って理論立てて実装できます!

    • @ano5041
      @ano5041 ปีที่แล้ว

      TensorFlow 公式のチュートリアルで十分な気がするのだけど…
      そのほうが無料でできるし、Google Colabのノートブックも用意されていてコピーして容易に動かせたりする

  • @kiki-w2e1k
    @kiki-w2e1k ปีที่แล้ว

    手書き数字の分類や平均顔の話は、初めて論文読んだ時驚きましたねえ…

  • @tkma
    @tkma ปีที่แล้ว +2

    このシリーズやってほしかった!!

  • @comtam3602
    @comtam3602 ปีที่แล้ว +1

    線形代数のときもそうだけど、
    このチャンネル履修終わったあとに出るんだけどw
    一年生が羨ましい。

  • @スーパーパリピ陰キャコンプレックス丸

    なんてわかりやすさ、、、、、😮

  • @akatuki_me2
    @akatuki_me2 ปีที่แล้ว

    ほんと助かる

  • @はぎのつき-q3j
    @はぎのつき-q3j ปีที่แล้ว +1

    図形認識においては、ピクセル認識ではなく、ベクトル認識させる事は出来ない物か・・・
    そんな風に夢想する昨今でございます。

  • @山中天然水
    @山中天然水 6 หลายเดือนก่อน +1

    めちゃんこ面白い

  • @elinafurukawa224
    @elinafurukawa224 ปีที่แล้ว

    この丸にかかるケイセンの重みづけだったかなが学習理論かなって思ったの覚えてます。

  • @IM-vu4gj
    @IM-vu4gj 10 หลายเดือนก่อน

    ゼロつく1から4まで読んだら大分理解できるぞ

  • @ikatakomaguro534
    @ikatakomaguro534 ปีที่แล้ว

    任意の非線形関数は線形関数の線形結合で近似できるということかと思ってたが、実際の動きに落とすとこんな感じなのかなと何となく思ってる

  • @犬-s6i
    @犬-s6i ปีที่แล้ว

    こんなにも高度な「チャンネル登録おねがいします」初めて見た

  • @yossansan4337
    @yossansan4337 ปีที่แล้ว

    ここまでわかりやすいと、SIMDとか並列処理の話もしてほしくなりますね...

  • @妖刀
    @妖刀 ปีที่แล้ว +3

    しかし
    v (ヴイ)アルファベット
    ν (ニュー)ギリシャ文字
    の見分けができる気がしない

  • @eeee4767
    @eeee4767 9 หลายเดือนก่อน

    これの逆ならなんとなく知ってたけどこっちのやつは初めてみました
    でもいま解説するなら逆が知りたい気もする

  • @のとこま
    @のとこま ปีที่แล้ว

    続きが気になりすぎる

  • @usagioishikanoyama
    @usagioishikanoyama ปีที่แล้ว +1

    ReLUではアクティベーションを0〜1に押し込めないように思えるのですが問題ないのでしょうか?
    また、ReLUの方が計算コストが低そうですが、シグモイド関数よりも後に使われ始めたのはなぜでしょうか?

    • @ano5041
      @ano5041 ปีที่แล้ว +2

      実際に ReLU を使ってみると精度がいいので問題がないことがわかると思う。
      シグモイド関数よりも後に使われ始めた理由は、単に思いつかなかっただけかな。
      過去の人達も「なんとなく、活性化関数は0〜1に押し込めたほうがいいと思うからシグモイド!」と思い込んでいたのかもね。
      その思い込みによって、無限に大きくなる可能性のある ReLU を思いつかなかったとかかも。

    • @usagioishikanoyama
      @usagioishikanoyama ปีที่แล้ว

      @@ano5041 ありがとうございます

    • @comtam3602
      @comtam3602 ปีที่แล้ว +3

      シグモイド関数は滑らか! 微分できる。
      ReLUは滑らかじゃない! 微分できない! 場合分けがいる。= めんどい
      補足…ニューラルネットワーク(NN)は学習するごとに毎回ウエイト(バイアス含む)を変えます。そして誤差を少なくしていきます。次回のNNでは今回よりも誤差を少なくするために、ウエイトを大きくするか、小さくするか、の選択をしなければいけません。この選択肢は、誤差の傾きを見ることによって、決定できます。このとき微分が必要になります。

    • @n4tua763
      @n4tua763 ปีที่แล้ว +2

      出力層では0~1に押し込んだほうが都合がいいので、出力層だけシグモイド関数を使ったりします。他にも-1~1に押し込むtanh関数もよく使われます。

  • @tomoyakamimura
    @tomoyakamimura ปีที่แล้ว +1

    まだ、東京大学のコンビニで暗記パンって売っているの?本郷校舎の前にある黄色い海鮮丼屋さんもあるのかな?おいしいよね。いつも楽しい動画をありがとう。

    • @mariko6001
      @mariko6001 ปีที่แล้ว

      銀はち!!!

    • @FoxInFlame
      @FoxInFlame ปีที่แล้ว

      駒場キャンパス駅前のマックは残念ながらもう無いんですけどね…

  • @houbeki
    @houbeki ปีที่แล้ว

    次が待てない方はSONYがTH-camで出しているニューラルネットワークの動画がおすすめ

  • @daisuke3388
    @daisuke3388 ปีที่แล้ว

    Quote ´When your brain is smarter than yourself´

  • @Cthulhu-l_-n-_l-b
    @Cthulhu-l_-n-_l-b ปีที่แล้ว +1

    計算とかめっちゃ苦手だけど、考えめっちゃ面白い

  • @loop_construct
    @loop_construct 11 หลายเดือนก่อน

    つまりはアキネイターの魔人がいっぱい居るようなものなのかな

  • @HEADJOCKAA
    @HEADJOCKAA 22 วันที่ผ่านมา

    17:00 えらく単純化したなぁ。これでいいのか。

  • @竜平沢村-p7t
    @竜平沢村-p7t 11 หลายเดือนก่อน

    動画一覧画面でスクロールすると、この動画のサムネだけ、スクロール止まった瞬間に動き出すように見える。なんかの錯視?

  • @草履蝉
    @草履蝉 28 วันที่ผ่านมา

    ノーベル物理学賞にもなりましたね

  • @wswsan
    @wswsan ปีที่แล้ว

    14:16 ここ b0...bn だとW*aの計算後に出る列と合わなくないですか?

  • @SS-xh3em
    @SS-xh3em ปีที่แล้ว +1

    ディープラーニングがより進化したら、ロボットじゃないこと証明するぐにゃぐにゃ文字入力意味なくなっちゃうよな

  • @tamotsustop
    @tamotsustop ปีที่แล้ว

    12:21
    誤って5億年ボタンを押してしまった際はこれで時間を潰そうと思いました

  • @ymku-f3i
    @ymku-f3i 17 วันที่ผ่านมา

    自分が書いた3は、人に3と認識されないことがあります

  • @tts-th3mc
    @tts-th3mc ปีที่แล้ว +4

    30年以上前から研究開発されていたバックプロパゲーションだな、いつの間にかディープラーニングと呼び名が変わったが😪
    当時はハードウェアがショボくて処理速度が遅く、中間層1層だけの3層で、それでも画像処理なんかに応用した特注品を作ってた会社もいくつかあったが🤭
    ここ数年は処理速度も当時とは比較にならんほど上がり扱えるデータ量も飛躍的に増えて、中間層を増やしてもそこそこの時間で学習させられるようになり、応用実用の目途が立ってきたということだな、やれやれ😮‍💨
    しかし、どうやって入力に対する回答を導き出しているのかが分からん不気味さは無くならんし、突拍子もない頓珍漢な回答を出してくることもある、それは良いが有得そうで間違った答えを出されるのがかなわんな、例えば医療AIで間違った診断を出したりなど、まだまだ最終判断には(専門の)人間が必要だな😩

  • @Rasptin-d3b
    @Rasptin-d3b 20 วันที่ผ่านมา

    この方向性ではやはりドラえもんやアトムは生まれませんね。

  • @Danboorukun.
    @Danboorukun. ปีที่แล้ว

    絶対に使う気がしない知識だけど、こういうのって知りたくなっちゃうよね

    • @ano5041
      @ano5041 ปีที่แล้ว +1

      数年後は使ってるかもよ

  • @まめし-y2w
    @まめし-y2w ปีที่แล้ว +1

    次の人生ではこういうのがわかりたい

    • @ano5041
      @ano5041 ปีที่แล้ว

      今何歳?

  • @なつかしベリー
    @なつかしベリー ปีที่แล้ว

    書き順を想像できるプログラムができたら簡単な話なのですがね

  • @taitai1222
    @taitai1222 ปีที่แล้ว

    研究室時代に出して欲しかった笑笑

  • @cooper7003
    @cooper7003 ปีที่แล้ว

    ニューラルネットワーク…
    昔、LONってあったよね

  • @user-bo5zv6ug9j
    @user-bo5zv6ug9j ปีที่แล้ว

    おもしろい

  • @文彦斉藤-d4i
    @文彦斉藤-d4i ปีที่แล้ว

    35年ほど前にバックプロパゲーションが話題になりました。パーセプトロンが線形のパタン認識しかできなかったものが非線形でも認識できるようになりました。画像認識では、パタン認識以前の前処理が最も困難です。例えば数字認識でしたら、20桁の数字を1数字づつ分割するような処理です。明瞭な画像でしたら古典的なセグメンテーションで可能ですが、コントラストが悪く数字同士が接触しているような場合です。ディープラーニングは最適化手法の一種ですが、やはりGAの方が能力は上だと思います。特徴抽出をNNに行わせるのは邪道と考えます。画像認識研究歴45年、査読付原著論文250編を発行している科学者の戯言です。

  • @takek9215
    @takek9215 9 หลายเดือนก่อน

    未来の教科書

  • @根歩
    @根歩 ปีที่แล้ว

    オススメに出てくるようにチャンネル登録してねだってさ!
    キザだわ〜〜〜!!

  • @npsum-tm8ly
    @npsum-tm8ly ปีที่แล้ว +1

    MNISTだ!!!

    • @npsum-tm8ly
      @npsum-tm8ly ปีที่แล้ว

      二値分類の損失関数を二乗和誤差で解いてた二年前の自分に見せたいw

  • @マルセルスワン
    @マルセルスワン ปีที่แล้ว

    チャンネル登録のくだりメタすぎて草

  • @ももパイン部
    @ももパイン部 ปีที่แล้ว +1

    やっぱり日本語訳あるとわかりやすい

  • @みどり-t3d
    @みどり-t3d 7 หลายเดือนก่อน

    11:08 難しくなってきた

  • @coffeemilk6347
    @coffeemilk6347 ปีที่แล้ว

    メモ 7:30

  • @熊澤典子-h2v
    @熊澤典子-h2v ปีที่แล้ว

    oh😊

  • @user-bl2zf2mh3g
    @user-bl2zf2mh3g ปีที่แล้ว

    いいねーさいけう

  • @どどどどどど-f4t
    @どどどどどど-f4t หลายเดือนก่อน

    EDITが非常にSEXY

  • @タケ-g4g
    @タケ-g4g หลายเดือนก่อน

    正直すごくまわりくどく説明してるように感じる。

    • @takegone6500
      @takegone6500 28 วันที่ผ่านมา

      英語を日本語に翻訳しているからではなかろうか

  • @KiraYoshikageKillerQueen
    @KiraYoshikageKillerQueen 3 หลายเดือนก่อน

    ニューラルネットワークについて勉強しようと思ったけど、冒頭でマウント取ってきて見るのやめた

  • @user-fn2xd6vu5q
    @user-fn2xd6vu5q ปีที่แล้ว

    待ってました!!

  • @ikatakomaguro534
    @ikatakomaguro534 ปีที่แล้ว

    任意の非線形関数は線形関数の線形結合で近似できるということかと思ってたが、実際の動きに落とすとこんな感じなのかなと何となく思ってる

    • @ano5041
      @ano5041 ปีที่แล้ว

      この動画によって、線形関数の線形結合で近似できるということが間違いだと理解した、ということ?