ความคิดเห็น •

  • @pascal_Boy
    @pascal_Boy ปีที่แล้ว +69

    Japanをみてから、もとの動画みにいくと
    英語の勉強にもなる…素晴らしきかなこのチャンネル

    • @ano5041
      @ano5041 ปีที่แล้ว +2

      どう?英語の勉強捗ってる?

  • @広河長綺
    @広河長綺 ปีที่แล้ว +212

    「チャンネル登録してね」ってありとあらゆるyoutubeチャンネルで聞いてきたけど、この動画が一番オシャレに言ってると思う

    • @whiterabbit5410
      @whiterabbit5410 ปีที่แล้ว +21

      このコメントがオシャレすぎて動画を最後まで見る気になった。

    • @mizuchin36
      @mizuchin36 4 หลายเดือนก่อน

      確かにです🤣

  • @Rhinecanthus
    @Rhinecanthus ปีที่แล้ว +32

    めっちゃありがたり。ありがたすぎる、英語版見てる時からずっとこの音声付き日本語訳を待っていました、本当に嬉しい ありがとうございます

  • @jumnn
    @jumnn ปีที่แล้ว +12

    5,6年前に深層学習の分野に携わっていたのですが、このチャンネルをその時に拝見したかったです。
    当時の私に届けることはできませんが、今の私はとても興味深く拝見させていただきました。

  • @Ryon_P329
    @Ryon_P329 ปีที่แล้ว +7

    とんでもねぇ複雑なもんをすげぇ簡単に教えて貰ってるのに、それでもすげぇ難しいからちゃんと理解するのはほんとに大変なんだろうなって思う
    ましてや開発した人はバケモンやろ

  • @訓練された鶏
    @訓練された鶏 ปีที่แล้ว +17

    大学でほぼこれと同じ数字認識のAI学習(OCR)を、jupyter上でコード書いて学習させて試すって一連の講義をうけたけど
    正直言われた通りやるだけで、間に何が起こってるかわからなかったわ
    これは非常にわかりやすい

    • @ano5041
      @ano5041 ปีที่แล้ว

      わからない状態でもとりあえず手を動かすという学習方法は、生徒が受け身の姿勢だとうまくいかないからね
      自分から学ぼうという姿勢が生徒自身にないとうまくいかない

    • @ussee-ussee-usseewa
      @ussee-ussee-usseewa ปีที่แล้ว +3

      @@ano5041でもこの人は実際に興味を持ってここに来ているけど授業では分からなかったから教える側が悪いと思う

    • @ano5041
      @ano5041 ปีที่แล้ว +4

      @@ussee-ussee-usseewa 「正直言われた通りやるだけで、間に何が起こってるかわからなかった」という経験が興味を持つきっかけになっている可能性もある

  • @wswsan
    @wswsan ปีที่แล้ว +50

    ニューロンのあの関数そういう考えで作られていたのか
    非常にわかりやすく作られていて助かる

  • @Rhinecanthus
    @Rhinecanthus ปีที่แล้ว +14

    終わり方がメタすぎて面白い

  • @るんるん-u5e
    @るんるん-u5e 8 หลายเดือนก่อน +4

    Programing言語で数式を書けば数学に疎くても理解できる内容ではあるんですが、
    数式で脱落している人は多いでしょうね。
    あと、重みとは丸と丸をつなぐ線分のことなんですが、理解できてない人もいそうな気がします。
    実際0層目(入力)から1層目を出す式はこんなもので極めて簡単です。
    node // 動画上の◯
    weight // 動画上の線であり重みであり記憶
    node[1][0] = Sigmoid( bias + weight[0][0][0] * node[0][0] + weight[0][0][1] * node[0][1] + weight[0][0][2] * node[0][2] + ・・・ + weight[0][0][N] * node[0][N] )
    node[1][1] = Sigmoid( bias + weight[0][1][0] * node[0][0] + weight[0][1][1] * node[0][1] + weight[0][1][2] * node[0][2] + ・・・ + weight[0][1][N] * node[0][N] )


  • @人浪-t6q
    @人浪-t6q ปีที่แล้ว +7

    オチがチャンネル登録への誘導になってるの感動した

  • @yu-qf8pq
    @yu-qf8pq ปีที่แล้ว +5

    なめらかなシグモイドより閾があるReLUの方が上手くいくのちょっと意外性あって良い

  • @nacuraion
    @nacuraion ปีที่แล้ว +24

    常々表現の巧さに感嘆させられていたが
    今回は加えてカリキュラムの巧さに感動を覚えた
    「ニューラルネットワーク」大きな言葉のブラックボックスに隠された原理をわかりやすく説明しながら
    その莫大で不可能とも思える計算量を解決する発想は過去の線形代数の動画にあったという
    理系学生全員にこの動画の面白さが伝わってほしいという強い情動に突き動かされる

  • @妖刀
    @妖刀 ปีที่แล้ว +3

    しかし
    v (ヴイ)アルファベット
    ν (ニュー)ギリシャ文字
    の見分けができる気がしない

  • @g5161431
    @g5161431 ปีที่แล้ว +9

    過去みてきたどの動画よりもわかりやすい。
    ずっとイメージしづらかったことがすっと入りました。
    ありがとうございます!!!

  • @フルスイング吉田-m2z
    @フルスイング吉田-m2z ปีที่แล้ว +7

    マジでこの世界ってすげぇなぁ。。。

  • @umi9217
    @umi9217 ปีที่แล้ว +9

    めっちゃ良いタイミングで動画きた!!
    勉強しないといけなかったんで助かります

  • @wd.eclairgreen
    @wd.eclairgreen 9 หลายเดือนก่อน +3

    このチャンネルの線形代数のChapter1でベクトルはコンピュータサイエンスの視点では数のリストであるって言ってたのがこういうことね。伏線が回収されたみたいで嬉しい

  • @wahaha-_-
    @wahaha-_- ปีที่แล้ว +67

    これ丁度知りたかったからめっちゃ助かる

    • @Kakuseino-Tamasi
      @Kakuseino-Tamasi ปีที่แล้ว +2

      俺も丁度この事を夢で考えてから目覚めたから助かる

    • @ano5041
      @ano5041 ปีที่แล้ว +1

      俺は一年ほど前から知りたかったけど助かってる

    • @YS-rs4cp
      @YS-rs4cp ปีที่แล้ว +2

      ちょうど切らしてた

    • @ラブカ-d7g
      @ラブカ-d7g ปีที่แล้ว +5

      俺も大学院でニューラルネットワーク使ってるから助かる(マジで)

    • @志田ちゃん志田ちゃん
      @志田ちゃん志田ちゃん ปีที่แล้ว +3

      大学院でやってるのに
      この動画で助かってるの
      修了できるか不安

  • @SS-xh3em
    @SS-xh3em ปีที่แล้ว +1

    ディープラーニングがより進化したら、ロボットじゃないこと証明するぐにゃぐにゃ文字入力意味なくなっちゃうよな

  • @はぎのつき-q3j
    @はぎのつき-q3j ปีที่แล้ว +1

    図形認識においては、ピクセル認識ではなく、ベクトル認識させる事は出来ない物か・・・
    そんな風に夢想する昨今でございます。

  • @ta-fw6gx
    @ta-fw6gx ปีที่แล้ว +2

    ちょうど今日の昼間にこれの英語版を字幕で観てたとこ! めっちゃタイムリー! 日本語版ありがたい!

  • @mtaka84219
    @mtaka84219 ปีที่แล้ว +2

    何これ、マジで死ぬほどおもしろい。この動画の構成を考えた人は天才。

  • @comtam3602
    @comtam3602 ปีที่แล้ว +1

    線形代数のときもそうだけど、
    このチャンネル履修終わったあとに出るんだけどw
    一年生が羨ましい。

  • @alogarithm
    @alogarithm ปีที่แล้ว +20

    深層学習はオライリーの書籍がすごくオススメ。
    実際にこの動画で扱っている手書き数字のデータセットを使ってモデル構築・予測するところまでTensorFlowを使って理論立てて実装できます!

    • @ano5041
      @ano5041 ปีที่แล้ว

      TensorFlow 公式のチュートリアルで十分な気がするのだけど…
      そのほうが無料でできるし、Google Colabのノートブックも用意されていてコピーして容易に動かせたりする

  • @kabo2767
    @kabo2767 ปีที่แล้ว +2

    アニメが非常にシンプルで、非常に分かりやすい!
    GPUが売れるのも頷ける。

  • @タケ-g4g
    @タケ-g4g 10 วันที่ผ่านมา

    正直すごくまわりくどく説明してるように感じる。

  • @とっぽー
    @とっぽー 3 หลายเดือนก่อน +1

    これが日本語訳で観れるありがたさ……

  • @256yayo
    @256yayo ปีที่แล้ว +2

    やはり説明が良い。
    あと声がいい。

  • @カメレオン-h9s
    @カメレオン-h9s ปีที่แล้ว +2

    自分も独学で勉強してるのですが
    ものすごくわかりやすいです

  • @山中天然水
    @山中天然水 5 หลายเดือนก่อน +1

    めちゃんこ面白い

  • @葵一
    @葵一 ปีที่แล้ว +2

    次回動画がめちゃ楽しみです、ありがとうございます!!

  • @mizuchin36
    @mizuchin36 4 หลายเดือนก่อน

    勉強していくと点と線が繋がって急に理解できることがあるけど、これはニューラルネットワークをイメージするとすごく納得いきました。
    そしてSigmoid関数ではなくてReLUの方が上手く行くのも、実際の脳の仕組みと近いからなんだろうなと感じました。

  • @tomoyakamimura
    @tomoyakamimura ปีที่แล้ว +1

    まだ、東京大学のコンビニで暗記パンって売っているの?本郷校舎の前にある黄色い海鮮丼屋さんもあるのかな?おいしいよね。いつも楽しい動画をありがとう。

    • @mariko6001
      @mariko6001 ปีที่แล้ว

      銀はち!!!

    • @FoxInFlame
      @FoxInFlame ปีที่แล้ว

      駒場キャンパス駅前のマックは残念ながらもう無いんですけどね…

  • @tkma
    @tkma ปีที่แล้ว +2

    このシリーズやってほしかった!!

  • @竜平沢村-p7t
    @竜平沢村-p7t 10 หลายเดือนก่อน

    動画一覧画面でスクロールすると、この動画のサムネだけ、スクロール止まった瞬間に動き出すように見える。なんかの錯視?

  • @chaeyoung750
    @chaeyoung750 ปีที่แล้ว +5

    このチャンネル、中身も興味深いけど声とBGMがほんとに心地よくて好き

  • @tamotsustop
    @tamotsustop ปีที่แล้ว

    12:21
    誤って5億年ボタンを押してしまった際はこれで時間を潰そうと思いました

  • @eeee4767
    @eeee4767 8 หลายเดือนก่อน

    これの逆ならなんとなく知ってたけどこっちのやつは初めてみました
    でもいま解説するなら逆が知りたい気もする

  • @どどどどどど-f4t
    @どどどどどど-f4t 20 วันที่ผ่านมา

    EDITが非常にSEXY

  • @ikatakomaguro534
    @ikatakomaguro534 ปีที่แล้ว

    任意の非線形関数は線形関数の線形結合で近似できるということかと思ってたが、実際の動きに落とすとこんな感じなのかなと何となく思ってる

  • @houbeki
    @houbeki ปีที่แล้ว

    次が待てない方はSONYがTH-camで出しているニューラルネットワークの動画がおすすめ

  • @usagioishikanoyama
    @usagioishikanoyama ปีที่แล้ว +1

    ReLUではアクティベーションを0〜1に押し込めないように思えるのですが問題ないのでしょうか?
    また、ReLUの方が計算コストが低そうですが、シグモイド関数よりも後に使われ始めたのはなぜでしょうか?

    • @ano5041
      @ano5041 ปีที่แล้ว +2

      実際に ReLU を使ってみると精度がいいので問題がないことがわかると思う。
      シグモイド関数よりも後に使われ始めた理由は、単に思いつかなかっただけかな。
      過去の人達も「なんとなく、活性化関数は0〜1に押し込めたほうがいいと思うからシグモイド!」と思い込んでいたのかもね。
      その思い込みによって、無限に大きくなる可能性のある ReLU を思いつかなかったとかかも。

    • @usagioishikanoyama
      @usagioishikanoyama ปีที่แล้ว

      @@ano5041 ありがとうございます

    • @comtam3602
      @comtam3602 ปีที่แล้ว +3

      シグモイド関数は滑らか! 微分できる。
      ReLUは滑らかじゃない! 微分できない! 場合分けがいる。= めんどい
      補足…ニューラルネットワーク(NN)は学習するごとに毎回ウエイト(バイアス含む)を変えます。そして誤差を少なくしていきます。次回のNNでは今回よりも誤差を少なくするために、ウエイトを大きくするか、小さくするか、の選択をしなければいけません。この選択肢は、誤差の傾きを見ることによって、決定できます。このとき微分が必要になります。

    • @n4tua763
      @n4tua763 ปีที่แล้ว +2

      出力層では0~1に押し込んだほうが都合がいいので、出力層だけシグモイド関数を使ったりします。他にも-1~1に押し込むtanh関数もよく使われます。

  • @男団子-x5t
    @男団子-x5t ปีที่แล้ว

    オライリーの本でがっつり勉強したけどこれ見てから取り掛かったらもっと理解早かっただろうな。まじで良い動画。

  • @根歩
    @根歩 ปีที่แล้ว

    オススメに出てくるようにチャンネル登録してねだってさ!
    キザだわ〜〜〜!!

  • @eggmanx100
    @eggmanx100 10 หลายเดือนก่อน

    何が凄いって、ニューラルネットワークの仕組みが自然に人間の脳の中に作られたということだな。

  • @犬-s6i
    @犬-s6i ปีที่แล้ว

    こんなにも高度な「チャンネル登録おねがいします」初めて見た

  • @loop_construct
    @loop_construct 10 หลายเดือนก่อน

    つまりはアキネイターの魔人がいっぱい居るようなものなのかな

  • @elinafurukawa224
    @elinafurukawa224 10 หลายเดือนก่อน

    この丸にかかるケイセンの重みづけだったかなが学習理論かなって思ったの覚えてます。

  • @やじゅせん
    @やじゅせん ปีที่แล้ว +1

    やっぱり日本語訳あるとわかりやすい

  • @cooper7003
    @cooper7003 ปีที่แล้ว

    ニューラルネットワーク…
    昔、LONってあったよね

  • @ki6893
    @ki6893 11 หลายเดือนก่อน

    手書き数字の分類や平均顔の話は、初めて論文読んだ時驚きましたねえ…

  • @ちゃんねる坊や
    @ちゃんねる坊や 6 หลายเดือนก่อน

    学生時代に出会いたかった…!
    素晴らしい動画!

  • @IM-vu4gj
    @IM-vu4gj 9 หลายเดือนก่อน

    ゼロつく1から4まで読んだら大分理解できるぞ

  • @なつかしベリー
    @なつかしベリー ปีที่แล้ว

    書き順を想像できるプログラムができたら簡単な話なのですがね

  • @鎌田英明-c6f
    @鎌田英明-c6f ปีที่แล้ว +1

    配信ありがとう👍

  • @daisuke3388
    @daisuke3388 ปีที่แล้ว

    Quote ´When your brain is smarter than yourself´

  • @ikatakomaguro534
    @ikatakomaguro534 ปีที่แล้ว

    任意の非線形関数は線形関数の線形結合で近似できるということかと思ってたが、実際の動きに落とすとこんな感じなのかなと何となく思ってる

    • @ano5041
      @ano5041 ปีที่แล้ว

      この動画によって、線形関数の線形結合で近似できるということが間違いだと理解した、ということ?

  • @sandvinyl
    @sandvinyl ปีที่แล้ว +1

    細かく丁寧な解説で分かりやすくてありがとう😊🎉

  • @npsum-tm8ly
    @npsum-tm8ly 11 หลายเดือนก่อน +1

    MNISTだ!!!

    • @npsum-tm8ly
      @npsum-tm8ly 11 หลายเดือนก่อน

      二値分類の損失関数を二乗和誤差で解いてた二年前の自分に見せたいw

  • @user-slashed-O
    @user-slashed-O ปีที่แล้ว +1

    これの日本語版見たかったから助かる

  • @マルセルスワン
    @マルセルスワン ปีที่แล้ว

    チャンネル登録のくだりメタすぎて草

  • @yossansan4337
    @yossansan4337 ปีที่แล้ว

    ここまでわかりやすいと、SIMDとか並列処理の話もしてほしくなりますね...

  • @あき缶-j2o
    @あき缶-j2o ปีที่แล้ว +1

    楽しみがひとつ増えた

  • @ptptsoushu
    @ptptsoushu 10 หลายเดือนก่อน

    今まで見たニューラルネットワークの説明で一番わかりやすかったです。ありがとうございます

  • @sankaku813
    @sankaku813 ปีที่แล้ว

    活性化関数が何をしているのか、よく分かりました。ありがとうございます。

  • @mk.248
    @mk.248 ปีที่แล้ว +1

    最後のオチの説得力

  • @wswsan
    @wswsan ปีที่แล้ว

    14:16 ここ b0...bn だとW*aの計算後に出る列と合わなくないですか?

  • @torikkuru
    @torikkuru ปีที่แล้ว

    プログラムに落とし込みたかったのでめちゃくちゃ勉強になりました。

  • @Chisataki-is-god
    @Chisataki-is-god ปีที่แล้ว +1

    待ってました!

  • @taitai1222
    @taitai1222 ปีที่แล้ว

    研究室時代に出して欲しかった笑笑

  • @みどり-t3d
    @みどり-t3d 5 หลายเดือนก่อน

    11:08 難しくなってきた

  • @takek9215
    @takek9215 8 หลายเดือนก่อน

    未来の教科書

  • @shiro_teacher
    @shiro_teacher 10 หลายเดือนก่อน

    説明が美しい、いつも勉強になります

  • @t.s.868
    @t.s.868 ปีที่แล้ว

    これ気になってたので助かりました!

  • @wa-i
    @wa-i ปีที่แล้ว

    この動画、日本語化待ってました!!

  • @おこめ-q8e
    @おこめ-q8e ปีที่แล้ว

    他の動画もだけど本当に分かりやすい

  • @user-bl2zf2mh3g
    @user-bl2zf2mh3g ปีที่แล้ว

    いいねーさいけう

  • @coffeemilk6347
    @coffeemilk6347 ปีที่แล้ว

    メモ 7:30

  • @十分性の確認
    @十分性の確認 ปีที่แล้ว +4

    ナレーションが心地よい

  • @user-bo5zv6ug9j
    @user-bo5zv6ug9j ปีที่แล้ว

    おもしろい

  • @akatuki_me2
    @akatuki_me2 11 หลายเดือนก่อน

    ほんと助かる

  • @熊澤典子-h2v
    @熊澤典子-h2v ปีที่แล้ว

    oh😊

  • @スーパーパリピ陰キャコンプレックス丸

    なんてわかりやすさ、、、、、😮

  • @のとこま
    @のとこま ปีที่แล้ว

    続きが気になりすぎる

  • @user-fn2xd6vu5q
    @user-fn2xd6vu5q ปีที่แล้ว

    待ってました!!

  • @みかさ-f1h
    @みかさ-f1h ปีที่แล้ว

    これはマジで助かる

  • @tts-th3mc
    @tts-th3mc ปีที่แล้ว +4

    30年以上前から研究開発されていたバックプロパゲーションだな、いつの間にかディープラーニングと呼び名が変わったが😪
    当時はハードウェアがショボくて処理速度が遅く、中間層1層だけの3層で、それでも画像処理なんかに応用した特注品を作ってた会社もいくつかあったが🤭
    ここ数年は処理速度も当時とは比較にならんほど上がり扱えるデータ量も飛躍的に増えて、中間層を増やしてもそこそこの時間で学習させられるようになり、応用実用の目途が立ってきたということだな、やれやれ😮‍💨
    しかし、どうやって入力に対する回答を導き出しているのかが分からん不気味さは無くならんし、突拍子もない頓珍漢な回答を出してくることもある、それは良いが有得そうで間違った答えを出されるのがかなわんな、例えば医療AIで間違った診断を出したりなど、まだまだ最終判断には(専門の)人間が必要だな😩

  • @Cthulhu-l_-n-_l-b
    @Cthulhu-l_-n-_l-b ปีที่แล้ว +1

    計算とかめっちゃ苦手だけど、考えめっちゃ面白い

  • @まめし-y2w
    @まめし-y2w ปีที่แล้ว +1

    次の人生ではこういうのがわかりたい

    • @ano5041
      @ano5041 ปีที่แล้ว

      今何歳?

  • @文彦斉藤-d4i
    @文彦斉藤-d4i 10 หลายเดือนก่อน

    35年ほど前にバックプロパゲーションが話題になりました。パーセプトロンが線形のパタン認識しかできなかったものが非線形でも認識できるようになりました。画像認識では、パタン認識以前の前処理が最も困難です。例えば数字認識でしたら、20桁の数字を1数字づつ分割するような処理です。明瞭な画像でしたら古典的なセグメンテーションで可能ですが、コントラストが悪く数字同士が接触しているような場合です。ディープラーニングは最適化手法の一種ですが、やはりGAの方が能力は上だと思います。特徴抽出をNNに行わせるのは邪道と考えます。画像認識研究歴45年、査読付原著論文250編を発行している科学者の戯言です。

  • @Danboorukun.
    @Danboorukun. ปีที่แล้ว

    絶対に使う気がしない知識だけど、こういうのって知りたくなっちゃうよね

    • @ano5041
      @ano5041 ปีที่แล้ว +1

      数年後は使ってるかもよ

  • @KiraYoshikageKillerQueen
    @KiraYoshikageKillerQueen 2 หลายเดือนก่อน

    ニューラルネットワークについて勉強しようと思ったけど、冒頭でマウント取ってきて見るのやめた