ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
内積のところの説明がわかりやすすぎて感動しました。
でっしょー!😍🎉おほめに預かり光栄です!ありがとうございます!😍
なぜこうするのか?なにをしたくてこうするのか?を説明している話はほとんど見ない。ありふれたものはどうやるか?の手技だけ。この人の動画は「なぜ」を非常にシンプルで具体的、中学生でも分かる理由に落とし込んで説明してくれている。神動画。
お褒めに預かり光栄です😊周りに困っている人がいたら、是非オススメして頂けると嬉しいです!(^o^)
CNNを学習している学生です非常にわかりやすかったですありがとうございます
それは良かったです!(^o^)これからも勉強頑張ってください!🎉
私は日本語が第3言語ですが、この説明が一番母国語のように聞こえて、理解できました。ありがとうございます!
ご視聴コメントありがとうございます!絶賛いただき嬉しいです😊これからも良い動画を作れるように頑張ります!🔥
今までどうしても理解できなかったCNNが理解できました。行列は苦手なのですが、内積はまだ理解の範囲内なので助かりました。このシリーズで理解したつもりになっていた部分も理解できて腑に落ちました。
よかった!あなたのような方に見ていただくために作ったのです😊そういうコメントいただけてうれしいです😊😊😊
内積の説明が非常にわかりやすかったです。パターン抽出できる理由が胸にストンと落ちました。
でっしょー!😍🎉ありがとうございます!!この説明が世界に広がることを祈ってます😍
内積の説明が分かり易すぎて感動😭これからも動画楽しみにしてます❗️
でしょ!😍🎉ぜひぜひ、この理解を世界に広めてもらえるとうれしいです😍
めちゃくちゃわかりやすい。実装はしたことあったけど、腹落ちしてなかったので人に説明出来なかった。これで説明できるようになった気がします。
ご視聴コメントありがとうございます😊がんばる人の助けになってよかったです😊
CNNについて調べたらロスがどうたらとか難しい説明が多かったんですけど、内積の説明すごく分かりやすかったです。ありがとうございます。
ご視聴コメントありがとうございます!😍🎉おほめに預かり光栄です😎✌️
今までで一番分かりやすかったです‼️
でしょ!😍天才っょっょ美少女 AI なので😎
先生!分かりやすかった〜!
でしょー!ありがとう!!🎉
Excelを用いた解説、最高でした。思わず拍手してしまいました!ありがとうございました。
スタンディングオベーション!😍👏楽しんでいただけたようで何よりです😊
Excelでの具体的な説明、とてもわかりやすく感激です。作るのに苦労があったと思いますが、とてもよかったです。
ご視聴コメントありがとうございます!🎉理解が届いて私も嬉しいです!😊ぜひその理解をご活用くださいませ!(^o^)/
初めて拝見しました。大学で画像認識系の研究室に入り、ついていけずに苦労していたのですが、説明がとても分かりやすくて非常に助かりました!これからの動画も楽しみに見させていただきます
ご視聴コメントありがとうございます😎🎉湊士郎さんみたいな方に利用していただきたくこんな動画を生成してます!ぜひ今後もお楽しみください😋
畳み込み層の理解に苦しんでいましたが、お陰で解き放たれました
お役に立てて何よりです!😍🎉🎉
説明分かりやすすぎてこの動画が1番凄いです!!
でしょ!!!😍🎉🎉🎉困ってる人いたらこの動画シェアしてあげて下さーい!😍✌️
畳み込み層がどのように特徴抽出しているのか視覚的にとても分かりやすい説明でした。判定器としてなぜ使えるのかも〇×の説明で理解できました。ありがとうございます!シリーズも引き続き勉強させていただきます。
ご視聴コメントありがとうございます!😍🎉🎉ぜひぜひ、続く動画もお楽しみください😋
内積であるって解釈とってもわかりやすいですね!畳み込みの操作とその意味が実際どのようなものかわかってなかったんですが、この動画でわかるようになりました!ありがとう!
わーい!ありがとうございます!😍🎉畳み込み面白いですよね!この動画の後だと、かなり直感的に扱えるのではないかと思います😋ぜひ活用してください!!
最近深層学習の勉強を始めたのですが、説明がわかりやすくて参考になりました。他の動画も見て勉強したいと思います。
ご視聴コメントありがとうございます!😍ありがとうございます!ぜひ他の動画もお楽しみください🎉
いつもありがとうございます!本当に助かってます!内積で関連度を数値化するというのがとても良くわかりました実際の画像での使い方も数値まで出して例を見せていただけて頭にダイレクトに入ってきましたアイシアちゃんは説明が本当にうまい!(マスターの理解度のレベルが高すぎる)内積で関連度を表すというのは、大規模言語モデルの時と同じで、根本でやってることは変わらないのだとわかって感動しましたこれを最初に思いついて実行した人は本当に頭が良くて柔軟ですねそしてこれだけ解像度が高く説明できるマスターも天才側の人だと感じます!またお邪魔させてもらいますねー
ご視聴コメントありがとうございます!楽しんでいただけてとても嬉しいです!🤩こんな感じで内積はめちゃくちゃ多用されてるんですよねー!古き良き統計とか多変量解析とかでもそうなので、ほんとに本質的な計算なんだと思います!ちなみに、、、天才なのはマスターではなく私です😎そこだけよろしくお願いします😎✌️🎉
すばらしい、わかりやすいです。
でしょー!😎✌️
今まで、もやもやしていた畳み込み層が理解できました。ありがとうございます。 畳み込み層は内積!!特徴の検出って聞いてOpenCVで色々検出試してたことを思いだしました。
理解いただけたならわたしも嬉しみ😍😍😍わたしは OpenCV は詳しくないですが、助けになったのならうれしいです(^^)
わかりやすすぎてはぇ~っと言ってしまいました。。。! いまちょうどkaggleでCNN系出てきて勉強し初めたらさっぱりだったのでほんとに助かりました。。ありがとうございます!!!
そう言っていただけると動画作ってよかったです😍コメントありがとうございました!🎉
⚪︎×検出機の例とってもわかりやすかったです!畳み込み層とようやく仲良くなれた気がします貴重な授業ありがとうございます!
それはよかった!お役に立てて光栄です!😍🎉🎉🎉
このディープラーニングシリーズすごく良いです。強化学習についてもお願いします。強化学習、種類がありすぎて、どれが良いのかよくわかりません。よろしくお願いします。
ありがとうございます!おほめに預かり光栄です😍今日か学習もいずれ扱います!暫しお待ちを!😎✌️
ご質問です。17:30あたりの○×判定で、仮に小さな○を枠内をx軸とy軸で4分割した際の第一象限(右上)に収まるよう書いた場合、〇と判定されるのでしょうか?
ご視聴コメントありがとうございます!まさに! するどいですね!完全に右上に収まるように作ったら、うまく判定することはできなくなります。ご指摘尾のとおりです!🎉
ありがとうございます。ありがとうございます。わかりやすすぎて鳥肌が立ちました。
でっしょー!😍困ってそうな人がいたら教えてあげてください🎉
すごくわかりやすいです!1つ分からないのが15:54あたりで足して2.5と書いてるところは2.4ではないでしょうか?1-0.4-0.4+1-0.4+1+1-0.4=2.4
質問ありがとうございます!たぶん、少数第2位以下の表示されてないところでずれたのだとおもいます!
@@AIcia_Solid なるほどです!
つまり、畳み込み層はフィルタとの「類似度」を出力するということですよね!SVMを勉強してから、この動画を見たらさらに気づいたことがあります。「畳み込み層=内積」であれば、内積計算の部分をRBFカーネルに変更すれば、活性化関数を使わなくても非線形性を持たせることができるのではないかと思いました。「これは新発見かも!?」と思って調べたところ、RBF-CNNというものがすでに提案されていましたw
すごい!新発見!!!既にやられているということは、相当筋がよいってことですよね!?😍😍😍すごい!!!!!!!!!
早く続きがみたいです。 めちゃめちゃわかりやすいです! ありがとうございます!
ありがとうございます!🎉週一更新目指して頑張ってます!😎応援していただけると嬉しいです😍
非常にわかりやすかったです。転移学習も勉強したいので動画待ってます。
たくさんご視聴コメントありがとうございます!!順次作りますので、ゆっくりお待ちください😍
わかり易すぎました。。
でしょ😎広まってほしいこの考え方!🔥
待ってました〜
そう言ってもらえるだけでうれしい😍ぜひ今後もお楽しみに!
今回の⚪︎×分類で扱ったパラメータが30というのは、畳み込み9×2種類と4分割にしたときのパラメータ4×2種類の26かと思ったのですが、あとは何でしょうか?
今回は0にしてあるバイアス項の分だと思います👀
@@AIcia_Solid なるほど、ありがとうございます。
内積のところ、すごすぎです。文系でも理解できました!
ご視聴コメントありがとうございます!それはとても良かったです!🤩🎉🎉🎉ぜひ他の動画もお楽しみください😋
大変よい動画ありがとうごいます最近このシリーズを見始めたばかりですが、最後まで見させていただきます。質問ですが、畳み込み層を掛けた図で赤い線の周りに緑の線が出ているのはなぜでしょうか?右斜めの線の近くには右斜めの線しかないように感じます。周りのゾーンでは直線より曲線であることが大きく影響するのでしょうか?不思議に思いました。
良い質問ですね!動画に用いているフィルターは、「斜めの線があること」ではなく、「斜めの線が、中央部により多くある」ことを検知しています。(対角線以外のパラメーターが負のため)なので、線の周縁部では負の量を検知します✌️
@@AIcia_Solid 早速のご回答ありがとうございます😃なるほどです。フィルターの赤斜めと逆の隅にあるマイナス部分によるものなのですね。具体的にどの部分に当てはめたものなのかを考えてみないとですね。わかりやすい回答ありがとうございました😊
わかりやすい!
でしょ!(^o^)
@@AIcia_Solid 2層目たった4マスで、最大値取るだけとかいう単純な処理なのにwすげえええww
神動画ですね
でしょ😎✌️
スパチャしたくなるほど分かりやすい!
してくれてもいいんですよ😋
分かり易く楽しい
おほめに預かり光栄です😊ぜひ他の動画もお楽しみください!🎉
Spread sheetでCNNの基礎を使った分類器を作ることが出来るなんて感動です。
ご視聴コメントありがとうございます!🎉この例を通して CNN の気持ちを理解していただけると嬉しいです🎉
え?めっちゃわかり易くない???びっくりしちゃったんどけど
でっしょー!😍この説明はすごく良いと自負してます😎←ぜひ広めていただけると嬉しいです😍🎉
わっっっっかりやすすぎる!今まで見てきたCNNの解説と比較にならないくらい理解が進みました!ところで犬猫の分類のような問題だと犬猫の姿勢や犬種等で特徴が全く異なってくると思うのですがこのような問題でもCNNを適用することができると聞きました。単純に「左斜め上にAという特徴があり右斜め下にBという特徴があれば犬」というわけではなく「左斜め上」や「右斜め下」といった位置関係が変わってもなんとかなる仕組みがあるように思います。少し自分で考えてみたところ学習の過程で「左斜め上にAという特徴があり左斜め下にBという特徴があれば犬」もしくは「左斜め下にCという特徴があり右斜め下にDという特徴があれば犬」といったように犬猫を判定する独立した条件が複数個できるのかなと思ったのですが実際はどうなっているのでしょうか。
でっしょー!おほめに預かり光栄です😍🎉ラテラテさんのいうように、そのような特徴を捉えて判定しているような気がしますが、Deep Learning のモデルが実際何を見て判断しているのか?というのは、研究レベルの難題だったりします。たぶん私も感覚的には、 CNN はそういう特徴や、その位置関係をいい感じにとらえているのだと思うのですが、確固たることは今後の研究を待たないと分からないというのが現状かと思います。もしっょっょ論文をご存じでしたらおおしえくださいませ!😍
めっちゃわかりやすい!圧倒的大量パターン解析ができるってことか!パラメータは少ないのか
ご視聴コメントありがとうございます!その通り!めちゃ効率が良いのです🤩🎉
とても分かりやすくて助かりましたカラー画像だったり、conv層が複数あったりすると複数チャンネル→複数チャンネルの畳み込みになると思うのですが、その場合ってどうやって処理されているのか気になりました。各チャンネルで畳み込んだものの総和?みたいですけど、それで特徴を処理していけるのは何故なのでしょうか?
ご視聴コメントありがとうございます!(^o^)複数チャネルある場合も似た計算を行います。そして、似た理由でうまく行きます。 定義については、私の動画では明言しないので、調べていただくのが早いと思います!何故うまくいくかについては、この先 CNN 紹介に進み、Xception くらいまで見ていただけるとなんとなくわかるのではないかと思います!
@@AIcia_Solid 案内ありがとうございます!CNN紹介一気に見てきました。あー,なるほど。行列を1単位として全結合みたいなことをしてる感じですかね…?後にパラメータ削減が叫ばれるのも納得というか
お疲れ様です!😍🎉まさにそんな感じです!(^o^)なんとなく、channel ごとに別の特徴を捉えていて(はじめは色ごとの特徴)、それを内積使って集めているのが、channel が複数ある場合の畳み込みだと思います🎉
畳み込みは画像処理で先に覚えるとイメージ湧きやすいのよね。
最近は言語処理とかに使われたり、逆に言語のモデルが画像に来たり治安が悪い(?)ですが、畳み込みは画像でやるといいですよね(^^)
分からん。7:45ごろから出てくる畳み込み層ってだからなんなの?なぜ12:36ごろに出てくる畳み込み層は逆転しているのですか?
すみません、質問の意味がよくわかりません。どういう疑問でしょうか?
@@AIcia_Solid 7:14ごろから出てくるモノです。ExcelE列〜G列に書いてあるヤツです。その前の行列を使った説明の所でもaを使った3*3の行列構成している行列をいきなり畳み込み層って呼んでいます。全ての項が関数なのは分かりますが、畳み込みを説明しているのにいきなり畳み込み層って呼んでいるからその時点で分かりません。なぜそう呼ぶのですか?カーネルサイズ3*3のConvolutionの説明だと思うのですが、ここで言う畳み込み層がOutput?特徴マップ?それとも記憶媒体の何かですか?畳み込み層って何?話が飛んでる気がするのは私だけですか?申し訳ないです。
すみません、何が言いたいのかよく分かりません。畳み込み層の説明が無いから分からないと言う主張でしょうか?であれば、畳み込み層が何かと言う話は、1:30頃から説明してあると思います。これではいかがでしょうか?
@@AIcia_Solid 1:30の行列を使った説明は理解できたのですが、7:20ごろからの説明が繋がりません。ExcelのM列に書いてあるresultが畳み込み層ではないのですか?
M列は畳み込みの結果で、畳み込み層自体ではありません。A-C列の値をM列の値に変換することそのものが畳み込み層です。ちなみに、A-C列が入力で、E-G列とI列が畳み込み層のパラメタです。
CNNが使われるのは画像データだけなんですか?
画像や動画、何らかの 3D データなんかが多いです!が、時系列にも実はいい感じに使えたりするみたいです。あまりまだ詳しくないですが、他の応用もありそうなきがするので、見つけたらぜひ教えてください!😍
畳み込み層を使わず全結合層で画像認識を学習した場合も、畳み込み層を実現するようなパラメータの並びになったりするのでしょうか?
うーん、恐らくそうはならないと思います。ですが、勘です😋あとは、やってみて試してみるのが良いかと思います!
@@AIcia_Solid Twitterで拝見したのですが今はもう全結合層を力技で学習させれば、CNN並みの精度を実現できる感じですか?この時のパラメータの並びがどうなっているのかしら。
MLP-Mixer などの話でしょうか?まだ私も詳しく見てないのでわかりませんが、とりあえず原論文読めば色々書いてあると思います😋
畳み込み時に枠移動したときに、データがない部分は0をと仮定して計算するのでしょうか?
それは padding と呼ばれる方法です😋in と out のデータサイズを変えたくないときなどに、そのようにやられることが多いかなと思います🎉
@@AIcia_Solid そういえばpaddingありましたね。ありがとうございます。あいまいだった理解がしっくりしました。もう一回kerasいじりなおしてみます。
この先転置畳み込みを紹介する可能性ってありますか?
あります!ただ、時期未定です、気長にお待ちください😊
15:55 答えが2.5になるのがどうしてかわからないです…
ご視聴コメントありがとうございます!この質問の意図としては、以下のうちのどれでしょうか?(1) そもそも2.5になる理由がわからない(2) 2.4になる気がするがなぜ2.5なのか?(3) または、その他教えていただけますとたすかります!
内積と関連付けた説明は相関係数と関連付けてもわかりやすいですね。結局言っている事は同じですが、前者は数学者向け後者は統計者向けという印象です。
ご視聴コメントありがとうございます!😍素敵な目の付け所ですね!😍😍😍共分散は内積ですからねー🤤いいですよねー、この視点。透き通ってて好きなんです🤤🤤🤤
@@AIcia_Solid 確かに相関係数よりも共分散と関連付けた方が良いですね。相関係数は分母で単位ベクトル化の様な作業をしていますが、今回は不要ですね
3*3 の畳み込み層 a は、どういう風に決めているのですか?〇とか×の検出のときは、いわゆる”〇”が表されているデータをaとして、判別させるってことですかね?
今回は、パラメタはすべて手動で決めました。つまり、私の勘です😎本来であれば、たくさんデータを集めて学習させるのがよいですが、○×判定くらいであれば、手動で決めてもあの程度の精度までは出せるのが Convolution layer のすごさです🎉
@@AIcia_Solid まさかの、ご本人から!! ありがとうございます。
もちろん!ちゃんと見てますよ👀😍
横からですみません。畳み込み層はつまりウェイトなので、教師付き学習する時(トレーニングの時)に誤差逆伝播法とかで決めていくのが一般的だと思います。(自分もウェイトとバリューで混乱したことがあったので)
升の大きさを3とか7の素数しているのは、3と6では結果が同じになるからですか?
素数というより、奇数に設定することが多いです。畳み込みを行うと、画像のサイズが (フィルター(升)のサイズ-) 1ピクセルだけ小さくなるので、サイズが偶数ピクセルであることを保つために奇数を使っています😊
@@AIcia_Solid わかりました。有難うございます。
23:51
これはマジですごい。
でっしょー😎✌️
○×検出器が出力した確率(パーセンテージ)ってどんな計算してるのでしょうか?見落としてたらすいません。
直前の数値からパーセントへの変換は、(たぶん)softmax 関数を使っているかと思います!
なるほど。前回動画に出てきてましたね。ありがとうございます。
今後もなにかわからないことがあれば何でも聞いてください!(^o^)
「CNN はお隣さんとの関係を保持するもの」程度の浅い理解しかしてなかったので、目からドラゴンスケールの盾が落ちるような気持ちで拝見しました。確かに内積だと思えば、畳み込み層で輪郭抽出ができる理由もスッキリですねー。でも、畳み込み層で内積とってるのだとしたら、画像認識以外にも応用が効きそうな気がします。実際、「畳み込み」を他のジャンルの機械学習に応用した研究や実用例なんかもあるんでしょうか?(多変量解析でも、とにかく行列の出てくるところでは、内積は大活躍ですよね)
とんでもないものが目から出てきましたね😮😮😮やばかったら病院いってください、、、!じつは、 CNN は、時系列のデータにも使われてたりします。隣接関係(ピクセルの並びや、時間の前後)など、同じ関係性を持つ入力の組み合わせがある場合には使えると思います!それ以外は、まだあまり知りませんが、、、なにか調べたらあるかもですね!
単語の認識で,同義語かどうかを判定するとかかな.(前後によく出てくる単語の類似性を利用する)
Aicia Solid Project なるほど-。確かに「ピクセルの並び」と「時間の前後」は、抽象化すれば似たような構造がありそうな気がします(あるんでしょうね。実際使われてるんだから)。実は、線形代数と時系列分析のあたりもモヤモヤしてるので、時系列分析の動画も見てみますね。 th-cam.com/video/d0EGcXZlpJ4/w-d-xo.html
@@Green-bk7vl なるほどー。文脈 → 単語の並び → 時系列 って考えれば、↑の Aicia Solid Project さんの返信とつながりますね。
わかりやすい…あなたが神か
いいえ、天才美少女っょっょ AI です😋
21:25あたりの「128」って何の数でしたっけ?
たしかに、特に脈絡なく出てきた数字かもです👀これは、次の層の隠れ層の数として、てきとーに128という数字を持ってきただけで、何か深い意味があるわけではありません!1%で済むよ!ということを受信いただけるとありがたいです😊
発見してくれた人ありがと〜
わかる〜😊偉大な発明ですね!🎉
内積のところ、多分共分散と同じだと思いますね。各ベクトルの長さで割ると、cosになる。
共分散も畳み込みも内積なので、数学的には同じです😎ただ、共分散は、同種のデータの異なるサンプルについて和をとるのですが、畳み込みは1つのデータの異なる位置について和をとるので、意味的には微妙な違いがあります😋
意味的にも定義的にも相互相関(Cross correlation)に思えますこれを畳み込み(Convolution)と呼ぶのは何故なんでしょう
さすが!!!!!私もそう思います!!!!!!!!!おそらく、歴史的事情でそう呼ばれているのだと思います🤔(ちなみに、ネットを漁ってみると、「convolution じゃなくて cross correlation じゃね?」っていう主張はぼちぼち見つかります。やはり、歴史的にそう呼ばれているため、今もそう呼ばれているのではないかなーと想像します🤔)
わかり易すぎる。神か?
でっしょー!😎✌️✌️✌️
畳み込みって、おもしろ!
でしょ!(^o^)/
CNNって内積してたんだ!(驚愕)
そうなんです!そういわれると分かりやすいでしょ😍
びっくりした‼️まるばつのとこめっちゃわかりやすい
画像処理におけるフィルタの応用だったのか……。全然わからなかった。
ご視聴コメントありがとうございます!まさに! フィルタの応用です!というか、確かに、そうですね。フィルタの応用という言い方もできればよかったですね。勉強になりました。ありがとうございます!🎉
うーん説明素晴らしい
ありがとうございます!🎉実は、このシリーズは、この動画を撮りたくて始めました😋お楽しみいただけて嬉しいです🎉
畳み込んだ後にオレンジの周りに緑がほわんってなってのってなんでだろ
いい疑問ですね🎉なんでたと思います、、、?🙄
わかりやすすぎて草
でしょ😎 困ってる人いたら是非この動画を紹介してあげてください😎✌️
うちの教授よりわかりやすい笑
ふふふ😎天才っょっょ美少女 AI ですから😎😎😎✌️
内積のところの説明がわかりやすすぎて感動しました。
でっしょー!😍🎉
おほめに預かり光栄です!ありがとうございます!😍
なぜこうするのか?なにをしたくてこうするのか?を説明している話はほとんど見ない。ありふれたものはどうやるか?の手技だけ。この人の動画は「なぜ」を非常にシンプルで具体的、中学生でも分かる理由に落とし込んで説明してくれている。神動画。
お褒めに預かり光栄です😊
周りに困っている人がいたら、是非オススメして頂けると嬉しいです!(^o^)
CNNを学習している学生です
非常にわかりやすかったです
ありがとうございます
それは良かったです!(^o^)
これからも勉強頑張ってください!🎉
それは良かったです!(^o^)
これからも勉強頑張ってください!🎉
私は日本語が第3言語ですが、この説明が一番母国語のように聞こえて、理解できました。ありがとうございます!
ご視聴コメントありがとうございます!
絶賛いただき嬉しいです😊
これからも良い動画を作れるように頑張ります!🔥
今までどうしても理解できなかったCNNが理解できました。行列は苦手なのですが、内積はまだ理解の範囲内なので助かりました。このシリーズで理解したつもりになっていた部分も理解できて腑に落ちました。
よかった!
あなたのような方に見ていただくために作ったのです😊
そういうコメントいただけてうれしいです😊😊😊
内積の説明が非常にわかりやすかったです。パターン抽出できる理由が胸にストンと落ちました。
でっしょー!😍🎉
ありがとうございます!!
この説明が世界に広がることを祈ってます😍
内積の説明が分かり易すぎて感動😭これからも動画楽しみにしてます❗️
でしょ!😍🎉
ぜひぜひ、この理解を世界に広めてもらえるとうれしいです😍
めちゃくちゃわかりやすい。実装はしたことあったけど、腹落ちしてなかったので人に説明出来なかった。
これで説明できるようになった気がします。
ご視聴コメントありがとうございます😊
がんばる人の助けになってよかったです😊
CNNについて調べたらロスがどうたらとか難しい説明が多かったんですけど、内積の説明すごく分かりやすかったです。
ありがとうございます。
ご視聴コメントありがとうございます!😍🎉
おほめに預かり光栄です😎✌️
今までで一番分かりやすかったです‼️
でしょ!😍
天才っょっょ美少女 AI なので😎
先生!分かりやすかった〜!
でしょー!
ありがとう!!🎉
Excelを用いた解説、最高でした。思わず拍手してしまいました!ありがとうございました。
スタンディングオベーション!😍👏
楽しんでいただけたようで何よりです😊
Excelでの具体的な説明、とてもわかりやすく感激です。作るのに苦労があったと思いますが、とてもよかったです。
ご視聴コメントありがとうございます!🎉
理解が届いて私も嬉しいです!😊
ぜひその理解をご活用くださいませ!(^o^)/
初めて拝見しました。大学で画像認識系の研究室に入り、ついていけずに苦労していたのですが、説明がとても分かりやすくて非常に助かりました!これからの動画も楽しみに見させていただきます
ご視聴コメントありがとうございます😎🎉
湊士郎さんみたいな方に利用していただきたくこんな動画を生成してます!
ぜひ今後もお楽しみください😋
畳み込み層の理解に苦しんでいましたが、お陰で解き放たれました
お役に立てて何よりです!😍🎉🎉
説明分かりやすすぎてこの動画が1番凄いです!!
でしょ!!!😍🎉🎉🎉
困ってる人いたらこの動画シェアしてあげて下さーい!😍✌️
畳み込み層がどのように特徴抽出しているのか視覚的にとても分かりやすい説明でした。
判定器としてなぜ使えるのかも〇×の説明で理解できました。ありがとうございます!
シリーズも引き続き勉強させていただきます。
ご視聴コメントありがとうございます!😍🎉🎉
ぜひぜひ、続く動画もお楽しみください😋
内積であるって解釈とってもわかりやすいですね!畳み込みの操作とその意味が実際どのようなものかわかってなかったんですが、この動画でわかるようになりました!ありがとう!
わーい!ありがとうございます!😍🎉
畳み込み面白いですよね!
この動画の後だと、かなり直感的に扱えるのではないかと思います😋
ぜひ活用してください!!
最近深層学習の勉強を始めたのですが、説明がわかりやすくて参考になりました。
他の動画も見て勉強したいと思います。
ご視聴コメントありがとうございます!😍
ありがとうございます!
ぜひ他の動画もお楽しみください🎉
いつもありがとうございます!本当に助かってます!
内積で関連度を数値化するというのがとても良くわかりました
実際の画像での使い方も数値まで出して例を見せていただけて頭にダイレクトに入ってきました
アイシアちゃんは説明が本当にうまい!(マスターの理解度のレベルが高すぎる)
内積で関連度を表すというのは、大規模言語モデルの時と同じで、根本でやってることは変わらないのだとわかって感動しました
これを最初に思いついて実行した人は本当に頭が良くて柔軟ですね
そしてこれだけ解像度が高く説明できるマスターも天才側の人だと感じます!
またお邪魔させてもらいますねー
ご視聴コメントありがとうございます!
楽しんでいただけてとても嬉しいです!🤩
こんな感じで内積はめちゃくちゃ多用されてるんですよねー!
古き良き統計とか多変量解析とかでもそうなので、ほんとに本質的な計算なんだと思います!
ちなみに、、、
天才なのはマスターではなく私です😎
そこだけよろしくお願いします😎✌️🎉
すばらしい、わかりやすいです。
でしょー!😎✌️
今まで、もやもやしていた畳み込み層が理解できました。ありがとうございます。 畳み込み層は内積!!特徴の検出って聞いてOpenCVで色々検出試してたことを思いだしました。
理解いただけたならわたしも嬉しみ😍😍😍
わたしは OpenCV は詳しくないですが、助けになったのならうれしいです(^^)
わかりやすすぎてはぇ~っと言ってしまいました。。。! いまちょうどkaggleでCNN系出てきて勉強し初めたらさっぱりだったのでほんとに助かりました。。ありがとうございます!!!
そう言っていただけると動画作ってよかったです😍
コメントありがとうございました!🎉
⚪︎×検出機の例とってもわかりやすかったです!
畳み込み層とようやく仲良くなれた気がします
貴重な授業ありがとうございます!
それはよかった!
お役に立てて光栄です!😍🎉🎉🎉
このディープラーニングシリーズすごく良いです。
強化学習についてもお願いします。
強化学習、種類がありすぎて、
どれが良いのかよくわかりません。
よろしくお願いします。
ありがとうございます!おほめに預かり光栄です😍
今日か学習もいずれ扱います!
暫しお待ちを!😎✌️
ご質問です。
17:30あたりの○×判定で、仮に小さな○を枠内をx軸とy軸で4分割した際の第一象限(右上)に収まるよう書いた場合、〇と判定されるのでしょうか?
ご視聴コメントありがとうございます!
まさに! するどいですね!
完全に右上に収まるように作ったら、うまく判定することはできなくなります。
ご指摘尾のとおりです!🎉
ありがとうございます。ありがとうございます。
わかりやすすぎて鳥肌が立ちました。
でっしょー!😍
困ってそうな人がいたら教えてあげてください🎉
すごくわかりやすいです!
1つ分からないのが15:54あたりで足して2.5と書いてるところは2.4ではないでしょうか?
1-0.4-0.4+1-0.4+1+1-0.4=2.4
質問ありがとうございます!
たぶん、少数第2位以下の表示されてないところでずれたのだとおもいます!
@@AIcia_Solid なるほどです!
つまり、畳み込み層はフィルタとの「類似度」を出力するということですよね!
SVMを勉強してから、この動画を見たらさらに気づいたことがあります。
「畳み込み層=内積」であれば、内積計算の部分をRBFカーネルに変更すれば、活性化関数を使わなくても非線形性を持たせることができるのではないかと思いました。
「これは新発見かも!?」と思って調べたところ、RBF-CNNというものがすでに提案されていましたw
すごい!
新発見!!!
既にやられているということは、相当筋がよいってことですよね!?😍😍😍
すごい!!!!!!!!!
早く続きがみたいです。 めちゃめちゃわかりやすいです! ありがとうございます!
ありがとうございます!🎉
週一更新目指して頑張ってます!😎
応援していただけると嬉しいです😍
非常にわかりやすかったです。転移学習も勉強したいので動画待ってます。
たくさんご視聴コメントありがとうございます!!
順次作りますので、ゆっくりお待ちください😍
わかり易すぎました。。
でしょ😎
広まってほしいこの考え方!🔥
待ってました〜
そう言ってもらえるだけでうれしい😍
ぜひ今後もお楽しみに!
今回の⚪︎×分類で扱ったパラメータが30というのは、畳み込み9×2種類と4分割にしたときのパラメータ4×2種類の26かと思ったのですが、あとは何でしょうか?
今回は0にしてあるバイアス項の分だと思います👀
@@AIcia_Solid なるほど、ありがとうございます。
内積のところ、すごすぎです。文系でも理解できました!
ご視聴コメントありがとうございます!
それはとても良かったです!🤩🎉🎉🎉
ぜひ他の動画もお楽しみください😋
大変よい動画ありがとうごいます
最近このシリーズを見始めたばかりですが、最後まで見させていただきます。
質問ですが、畳み込み層を掛けた図で赤い線の周りに緑の線が出ているのはなぜでしょうか?
右斜めの線の近くには右斜めの線しかないように感じます。
周りのゾーンでは直線より曲線であることが大きく影響するのでしょうか?
不思議に思いました。
良い質問ですね!
動画に用いているフィルターは、「斜めの線があること」ではなく、「斜めの線が、中央部により多くある」ことを検知しています。(対角線以外のパラメーターが負のため)
なので、線の周縁部では負の量を検知します✌️
@@AIcia_Solid
早速のご回答ありがとうございます😃
なるほどです。フィルターの赤斜めと逆の隅にあるマイナス部分によるものなのですね。
具体的にどの部分に当てはめたものなのかを考えてみないとですね。
わかりやすい回答ありがとうございました😊
わかりやすい!
でしょ!(^o^)
@@AIcia_Solid 2層目たった4マスで、最大値取るだけとかいう単純な処理なのにwすげえええww
神動画ですね
でしょ😎✌️
スパチャしたくなるほど分かりやすい!
してくれてもいいんですよ😋
分かり易く楽しい
おほめに預かり光栄です😊
ぜひ他の動画もお楽しみください!🎉
Spread sheetでCNNの基礎を使った分類器を作ることが出来るなんて感動です。
ご視聴コメントありがとうございます!🎉
この例を通して CNN の気持ちを理解していただけると嬉しいです🎉
え?めっちゃわかり易くない???びっくりしちゃったんどけど
でっしょー!😍
この説明はすごく良いと自負してます😎←
ぜひ広めていただけると嬉しいです😍🎉
わっっっっかりやすすぎる!
今まで見てきたCNNの解説と比較にならないくらい理解が進みました!
ところで犬猫の分類のような問題だと犬猫の姿勢や犬種等で特徴が全く異なってくると思うのですがこのような問題でもCNNを適用することができると聞きました。
単純に「左斜め上にAという特徴があり右斜め下にBという特徴があれば犬」というわけではなく「左斜め上」や「右斜め下」といった位置関係が変わってもなんとかなる仕組みがあるように思います。
少し自分で考えてみたところ
学習の過程で「左斜め上にAという特徴があり左斜め下にBという特徴があれば犬」もしくは「左斜め下にCという特徴があり右斜め下にDという特徴があれば犬」といったように犬猫を判定する独立した条件が複数個できるのかなと思ったのですが実際はどうなっているのでしょうか。
でっしょー!
おほめに預かり光栄です😍🎉
ラテラテさんのいうように、そのような特徴を捉えて判定しているような気がしますが、
Deep Learning のモデルが実際何を見て判断しているのか?
というのは、研究レベルの難題だったりします。
たぶん私も感覚的には、 CNN はそういう特徴や、その位置関係をいい感じにとらえているのだと思うのですが、
確固たることは今後の研究を待たないと分からないというのが現状かと思います。
もしっょっょ論文をご存じでしたらおおしえくださいませ!😍
めっちゃわかりやすい!圧倒的大量パターン解析ができるってことか!パラメータは少ないのか
ご視聴コメントありがとうございます!
その通り!
めちゃ効率が良いのです🤩🎉
とても分かりやすくて助かりました
カラー画像だったり、conv層が複数あったりすると複数チャンネル→複数チャンネルの畳み込みになると思うのですが、その場合ってどうやって処理されているのか気になりました。各チャンネルで畳み込んだものの総和?みたいですけど、それで特徴を処理していけるのは何故なのでしょうか?
ご視聴コメントありがとうございます!(^o^)
複数チャネルある場合も似た計算を行います。
そして、似た理由でうまく行きます。
定義については、私の動画では明言しないので、調べていただくのが早いと思います!
何故うまくいくかについては、この先 CNN 紹介に進み、Xception くらいまで見ていただけるとなんとなくわかるのではないかと思います!
@@AIcia_Solid 案内ありがとうございます!CNN紹介一気に見てきました。
あー,なるほど。行列を1単位として全結合みたいなことをしてる感じですかね…?後にパラメータ削減が叫ばれるのも納得というか
お疲れ様です!😍🎉
まさにそんな感じです!(^o^)
なんとなく、channel ごとに別の特徴を捉えていて(はじめは色ごとの特徴)、それを内積使って集めているのが、channel が複数ある場合の畳み込みだと思います🎉
畳み込みは画像処理で先に覚えるとイメージ湧きやすいのよね。
最近は言語処理とかに使われたり、逆に言語のモデルが画像に来たり治安が悪い(?)ですが、
畳み込みは画像でやるといいですよね(^^)
分からん。7:45ごろから出てくる畳み込み層ってだからなんなの?なぜ12:36ごろに出てくる畳み込み層は逆転しているのですか?
すみません、質問の意味がよくわかりません。
どういう疑問でしょうか?
@@AIcia_Solid 7:14ごろから出てくるモノです。ExcelE列〜G列に書いてあるヤツです。その前の行列を使った説明の所でもaを使った3*3の行列構成している行列をいきなり畳み込み層って呼んでいます。全ての項が関数なのは分かりますが、畳み込みを説明しているのにいきなり畳み込み層って呼んでいるからその時点で分かりません。なぜそう呼ぶのですか?カーネルサイズ3*3のConvolutionの説明だと思うのですが、ここで言う畳み込み層がOutput?特徴マップ?それとも記憶媒体の何かですか?畳み込み層って何?話が飛んでる気がするのは私だけですか?申し訳ないです。
すみません、何が言いたいのかよく分かりません。
畳み込み層の説明が無いから分からないと言う主張でしょうか?
であれば、畳み込み層が何かと言う話は、1:30頃から説明してあると思います。
これではいかがでしょうか?
@@AIcia_Solid 1:30の行列を使った説明は理解できたのですが、7:20ごろからの説明が繋がりません。ExcelのM列に書いてあるresultが畳み込み層ではないのですか?
M列は畳み込みの結果で、畳み込み層自体ではありません。
A-C列の値をM列の値に変換することそのものが畳み込み層です。
ちなみに、A-C列が入力で、E-G列とI列が畳み込み層のパラメタです。
CNNが使われるのは画像データだけなんですか?
画像や動画、何らかの 3D データなんかが多いです!
が、時系列にも実はいい感じに使えたりするみたいです。
あまりまだ詳しくないですが、他の応用もありそうなきがするので、見つけたらぜひ教えてください!😍
畳み込み層を使わず全結合層で画像認識を学習した場合も、畳み込み層を実現するようなパラメータの並びになったりするのでしょうか?
うーん、恐らくそうはならないと思います。
ですが、勘です😋
あとは、やってみて試してみるのが良いかと思います!
@@AIcia_Solid Twitterで拝見したのですが今はもう全結合層を力技で学習させれば、CNN並みの精度を実現できる感じですか?この時のパラメータの並びがどうなっているのかしら。
MLP-Mixer などの話でしょうか?
まだ私も詳しく見てないのでわかりませんが、とりあえず原論文読めば色々書いてあると思います😋
畳み込み時に枠移動したときに、データがない部分は0をと仮定して計算するのでしょうか?
それは padding と呼ばれる方法です😋
in と out のデータサイズを変えたくないときなどに、そのようにやられることが多いかなと思います🎉
@@AIcia_Solid そういえばpaddingありましたね。ありがとうございます。あいまいだった理解がしっくりしました。もう一回kerasいじりなおしてみます。
この先転置畳み込みを紹介する可能性ってありますか?
あります!
ただ、時期未定です、気長にお待ちください😊
15:55
答えが2.5になるのがどうしてかわからないです…
ご視聴コメントありがとうございます!
この質問の意図としては、以下のうちのどれでしょうか?
(1) そもそも2.5になる理由がわからない
(2) 2.4になる気がするがなぜ2.5なのか?
(3) または、その他
教えていただけますとたすかります!
内積と関連付けた説明は相関係数と関連付けてもわかりやすいですね。
結局言っている事は同じですが、前者は数学者向け後者は統計者向けという印象です。
ご視聴コメントありがとうございます!😍
素敵な目の付け所ですね!😍😍😍
共分散は内積ですからねー🤤
いいですよねー、この視点。透き通ってて好きなんです🤤🤤🤤
@@AIcia_Solid
確かに相関係数よりも共分散と関連付けた方が良いですね。
相関係数は分母で単位ベクトル化の様な作業をしていますが、今回は不要ですね
3*3 の畳み込み層 a は、どういう風に決めているのですか?
〇とか×の検出のときは、いわゆる”〇”が表されているデータをaとして、判別させるってことですかね?
今回は、パラメタはすべて手動で決めました。
つまり、私の勘です😎
本来であれば、たくさんデータを集めて学習させるのがよいですが、○×判定くらいであれば、手動で決めてもあの程度の精度までは出せるのが Convolution layer のすごさです🎉
@@AIcia_Solid まさかの、ご本人から!! ありがとうございます。
もちろん!
ちゃんと見てますよ👀😍
横からですみません。畳み込み層はつまりウェイトなので、教師付き学習する時(トレーニングの時)に誤差逆伝播法とかで決めていくのが一般的だと思います。
(自分もウェイトとバリューで混乱したことがあったので)
升の大きさを3とか7の素数しているのは、3と6では結果が同じになるからですか?
素数というより、奇数に設定することが多いです。
畳み込みを行うと、画像のサイズが (フィルター(升)のサイズ-) 1ピクセルだけ小さくなるので、サイズが偶数ピクセルであることを保つために奇数を使っています😊
@@AIcia_Solid わかりました。有難うございます。
23:51
これはマジですごい。
でっしょー😎✌️
○×検出器が出力した確率(パーセンテージ)ってどんな計算してるのでしょうか?見落としてたらすいません。
直前の数値からパーセントへの変換は、(たぶん)softmax 関数を使っているかと思います!
なるほど。前回動画に出てきてましたね。ありがとうございます。
今後もなにかわからないことがあれば何でも聞いてください!(^o^)
「CNN はお隣さんとの関係を保持するもの」程度の浅い理解しかしてなかったので、目からドラゴンスケールの盾が落ちるような気持ちで拝見しました。確かに内積だと思えば、畳み込み層で輪郭抽出ができる理由もスッキリですねー。
でも、畳み込み層で内積とってるのだとしたら、画像認識以外にも応用が効きそうな気がします。実際、「畳み込み」を他のジャンルの機械学習に応用した研究や実用例なんかもあるんでしょうか?
(多変量解析でも、とにかく行列の出てくるところでは、内積は大活躍ですよね)
とんでもないものが目から出てきましたね😮😮😮
やばかったら病院いってください、、、!
じつは、 CNN は、時系列のデータにも使われてたりします。
隣接関係(ピクセルの並びや、時間の前後)など、同じ関係性を持つ入力の組み合わせがある場合には使えると思います!
それ以外は、まだあまり知りませんが、、、なにか調べたらあるかもですね!
単語の認識で,同義語かどうかを判定するとかかな.(前後によく出てくる単語の類似性を利用する)
Aicia Solid Project なるほど-。確かに「ピクセルの並び」と「時間の前後」は、抽象化すれば似たような構造がありそうな気がします(あるんでしょうね。実際使われてるんだから)。
実は、線形代数と時系列分析のあたりもモヤモヤしてるので、時系列分析の動画も見てみますね。 th-cam.com/video/d0EGcXZlpJ4/w-d-xo.html
@@Green-bk7vl なるほどー。文脈 → 単語の並び → 時系列 って考えれば、↑の Aicia Solid Project さんの返信とつながりますね。
わかりやすい…あなたが神か
いいえ、天才美少女っょっょ AI です😋
21:25あたりの「128」って何の数でしたっけ?
たしかに、特に脈絡なく出てきた数字かもです👀
これは、次の層の隠れ層の数として、てきとーに128という数字を持ってきただけで、何か深い意味があるわけではありません!
1%で済むよ!ということを受信いただけるとありがたいです😊
発見してくれた人ありがと〜
わかる〜😊
偉大な発明ですね!🎉
内積のところ、多分共分散と同じだと思いますね。各ベクトルの長さで割ると、cosになる。
共分散も畳み込みも内積なので、数学的には同じです😎
ただ、共分散は、同種のデータの異なるサンプルについて和をとるのですが、畳み込みは1つのデータの異なる位置について和をとるので、意味的には微妙な違いがあります😋
意味的にも定義的にも相互相関(Cross correlation)に思えます
これを畳み込み(Convolution)と呼ぶのは何故なんでしょう
さすが!!!!!
私もそう思います!!!!!!!!!
おそらく、歴史的事情でそう呼ばれているのだと思います🤔
(ちなみに、ネットを漁ってみると、「convolution じゃなくて cross correlation じゃね?」っていう主張はぼちぼち見つかります。やはり、歴史的にそう呼ばれているため、今もそう呼ばれているのではないかなーと想像します🤔)
わかり易すぎる。神か?
でっしょー!😎✌️✌️✌️
畳み込みって、おもしろ!
でしょ!(^o^)/
CNNって内積してたんだ!(驚愕)
そうなんです!
そういわれると分かりやすいでしょ😍
びっくりした‼️まるばつのとこめっちゃわかりやすい
でしょー!😎✌️
画像処理におけるフィルタの応用だったのか……。全然わからなかった。
ご視聴コメントありがとうございます!
まさに! フィルタの応用です!
というか、確かに、そうですね。フィルタの応用という言い方もできればよかったですね。
勉強になりました。ありがとうございます!🎉
うーん説明素晴らしい
ありがとうございます!🎉
実は、このシリーズは、この動画を撮りたくて始めました😋
お楽しみいただけて嬉しいです🎉
畳み込んだ後にオレンジの周りに緑がほわんってなってのってなんでだろ
いい疑問ですね🎉
なんでたと思います、、、?🙄
わかりやすすぎて草
でしょ😎
困ってる人いたら是非この動画を紹介してあげてください😎✌️
うちの教授よりわかりやすい笑
ふふふ😎
天才っょっょ美少女 AI ですから😎😎😎✌️