ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
機械学習系の解説動画は難しいことがとても多いので大変わかりやすく解説してくれるのはとってもありがたいです。。。
仮眠(ka-means)してきたからよく理解できた
機械学習 関連・【大学数学】ベイジアンネットワーク【機械学習】 → th-cam.com/video/zYKOL5RpVbo/w-d-xo.html・【機械学習】深層学習(ディープラーニング)とは何か → th-cam.com/video/s5_Pk3CjhNA/w-d-xo.html・【機械学習】クラスタリングとは何か(k-means) → 本動画・【機械学習】教師あり学習と教師なし学習の違い → th-cam.com/video/U8uqieKYtY4/w-d-xo.html おまけ・Amazon Web Services Japan 公式/[K-2] 招待講演: 機械学習の「そと」と「なか」 → th-cam.com/video/aDKplnbBziM/w-d-xo.html・クライン【KLeIn】/ヨビノリたくみにプログラミングについて聞いてみた。 → th-cam.com/video/lP1N3P6wBZk/w-d-xo.html
これ考えた人天才だろ
なんの分野か全く分からんかったけど全部見てしまった いつも僕の知らない世界を見せてくれてありがとうございます😊
自分の専門内容が予備ノリから出ると心に余裕をもって授業に挑めるアンパンマンさん今日もお疲れ様です
クラスタリングという用語をはじめてしりました。これから勉強します。
カーネル法も是非投稿してほしいです。カーネル法は応用性がすごく高いです。
いつもありがとうございます。機械学習もっと教えてください!!
本当にわかりやすい解説ですね…このようなあまり聞き馴染みのない考え方でもわかるように説明できる能力憧れます。私も解説動画頑張っていきます!!
ここでk-meansの話を聞けるとは
この前幼稚園に入学したのでこういう系の動画は助かります!
spssは「おいしさ」「色味」などの質的データを放り込むと、主成分分析や因子分析、判別分析など手品のようにポンポン提案してくれてスゲェなぁと思ってましたが、こう説明してもらうとそいつのキモチがなんとなく直感的にわかるようでうれしいです。
仕事でk-means使いました。Rでの解析でしたのでぶっちゃけ中身は知る必要ないのですが、大雑把に原理を知っているとデータの説明にも説得力が出ますね。次は主成分解析ついてお願いします
幅広いですねぇ...k-means が聞けるとは。前回の機械学習の動画で文字認識の話しておられましたし、次は教師ありの代表例として勾配法とか触れられるのでしょうか。楽しみです。
ほんとうにあった怖い話。ヨビノリ たくみの顔がアンパンマンに見えた人がその後、、、、
研究室に配属決定から配属までの間に教授から出された課題が k-meansと混合ガウスモデルを理解して実装 だったなぁ懐かしい
私の研究室ではk-meansを用いて制御を行っている同期がいました!ヨビノリさんのおかげで同期の研究への理解が深まったと思います!
最近、機械学習に取り組んでいて、対象となるモデルの分析に数学、物理の知識が必要だと思い、教育系ユーチューバの方の動画を拝見しています。ヨビノリさんの動画は若い方たちの学問への情熱が感じられて、若者の群像劇を見ている感もあり、見ていて楽しいです。おじさんに足りない熱量があります。自分の興味あるテーマーはパレートの法則「80対20の法則」が成立する理由とか、社会生活の中で発生するエントロピーとは何かとか草自分らしく、もっとクリエイティブに生きたいと願うなら、もっと自分を開放していかなきゃいけないですね。ヨビノリさんのボケ勉強になります。
よびのり流機械学習用語集・教師なし合宿・アル酸つよつよ・次元の説明で次元大介試験にでますか?
k-means勉強になりました。マンハッタン距離とか、マハラノビス距離で計算するパターンも聞きたくなりました。
いま k-means のプログラムを書いていますが、重心を動かす過程についての説明はバツグンにわかりやすかったです。ありがたや。
体調には気をつけてください
pythonで実装したのですが、あまり意味が分からずに使用していたので、動画を観て参考になりました。
小学生でも理解できるぐらい易しくていいですね
これからも機械学習シリーズお願いします!!
多次元でもできるのかを調べてたところこの動画にたどりつき、よくわかりました
こういう風に分けられてるのかと何だか裏側(仕組み)を知れて面白かったです!勉強になります♪謝謝!ワインの特徴のくだり…何気に好きなんだよなぁw(前回のも)次回もワインのくだりあるかな〜♪
K -means、K平均法は、教師なし学習で行うデータのグループ分け、クラスタリング。n個にグループ分けする場合、最初にn個の点をランダムに打ち、この点に近いデータでグループ分けする。次に各グループの重心を求め、その重心に近いデータでグループ分けする。これをグループ分けの変化がなくなるまで繰り返し、グループ分けを終了する。ただし、最初に打ったランダムの点で結果が異なるので、何回か実施して最良のグループ分けを選択する。
講義じゃ全然わからんかったけどめっちゃわかりやすい、ありがてえ
課題全くわからなかったからほんとに助かる
第2弾!?緊急事態宣言で機械学習の勉強始めました
要点をうまく説明できていると思います。
ワインあんまり知らないのに既に2回も例えててすこ
k-means初めて知りました。いわゆる「勉強」でない範囲の授業も楽しいです!
機械学習助かりますありがとうございます
①のあとどうやってグループ分けするのか全然予想できなくて②③④と進むにつれなるほどー!となり面白かったです!
文系で計量分析を学んでいるのですが、すごく分かりやすくて助かりました。
クラスタの個数があらかじめわかっていない場合は難しいですよね。実務でやったときは1クラスタあたり何個くらいとドメイン知識で決め打ちしちゃった
要素の個数が分かっていて、全要素を2つにグループ分けを行うなら、打つ点は1つでも良さそうですね!(ランダムな点を打つ→その点に近い順に要素をランキング付けして上位半分を取る→重心を取る→その点に近い順に要素をランキング付けして上位半分を取る→…を任意回数繰り返す)
0:09ファボゼロのボケすんな無理やりで申し訳ありません
ワインの例って、機械学習のサンプルでよくあるデータのやつですね。Python machine learningって教科書で見ました。
次回はEMアルゴリズムですか()
この勉強をそのうち高校で勉強する時代が来るかもしれない
ヨビノリさんのAIシリーズ充実に期待します。
8:52次元大介は笑うしかない笑笑
クラスカル法とプリム法リクエストします!
待ってた!
ちょうど講義でやってるからありがたい
教師なし学習といえば強化学習(特にDQN)も熱いですよね
機械学習関連を解説してくれるのはほんとにありがたい機械学習の中身も気が向いたら解説してほしい誤差逆伝播法とか、最急降下法とか偏微分を使ってた気がするけど結局何してんのかよくわからないままなんだよなぁ
ソニーが解説動画出してますよ!
makot ktjm やったーー!
分かりやすいー
僕は断然じげんより五ヱ門の方が好きです()
機械学習はワインとかタイタニックとかすきよな。
クラスタリングといえば、サポートベクタマシンも声に出したい数学用語ですよね
nchikun クラスタリングではない、そういえばそうでしたね
ありがとうございます!
GAも解説期待してます
k-meansのクラスタリングはこの動画わかりやすいですよーth-cam.com/video/4F80lCKzpEU/w-d-xo.html
大学化学の有機化学の動画見たいです!お願いします🙇♂️
幼なじみのクラインさんを潰しにいくスタイルのアンパンマン
ワインの話してなくてもカッコいいですよ
私の知っているk-meansでは、最初の分類は、n個のインスタンスの中から、k個をランダムに選んでクラスター分類する方法だったのですが、インスタンスからではなく座標をランダムに選ぶ方法でも大丈夫なのでしょうか。もし、座標からランダムに選ぶのであれば、外れ値すぎて分類できない事態が起こる可能性がある気がします。
こういうのって、軽くプログラム組んで動作してるの見たい気もする。
距離の定義にも触れてほしかったなあ.
文系学部ですがお世話になってます
観てます!🐻🎀
0:58~ スパムメール(迷惑メール)とハムメール(迷惑メールじゃないメール、平気メール)ですね
これもしxがすごい偶然でデータが一個も含まれないようなやつが選ばれたらどこへ飛ぶんだろうooo oooooo ooo x1 x2ooo ooみたいな
この調子でDeepLearningなんかもお願いします。
この動画を確立統計の再生リストに入れ忘れてるヨ
たくみさんはどういうパラメータで教師なし学習をして、分けているんでしょうか、、、顔を(means:機械学習シリーズありがとぉぉぉぉヨビノリは最高だよぉぉぉぉ)
ヨビノリさんがあげていたのを見て、k-meansのクラスタ数決める話したんで興味ある方は見てください
迷惑メールのことをよく「スパム」といいますが、迷惑メールではないメールのことを「ハム」といいます。
初めて知ったわ 使ってこ
サムネがねじれの位置
機械学習とか深層学習を身に着けたいけど、先に数学の知識をつけたほうがいいのかなと悩みながら、とりあえず線形代数の教科書を最初っから復習し始めてる今日このごろ。統計の教科書持ってないのは詰みなのか。
先に使ってみるのが吉
とりあえず「Chainer チュートリアル」をやってみるといいと思います最低限必要な数学の知識とPythonなどの知識を得られますよ
popo Kaga chainerと調べると、開発終了みたいな記事が出てきますがチュートリアルとしては問題ないんでしょうか。
@@ai2012 chainerの部分に関しては,”フレームワーク”となりますので,PytorchやTensorFlowなどお好きなものを選べます.それ以前の数学の知識やNumpyやMatplotlibといったPythonライブラリの入門に最適なのでご紹介しました.説明不足ですみません.追記です.Chainerチュートリアルの準備編と7,8,9,12章をやったあと,東大松尾研が公開しているdl4usやってみるといいかもしれません.
popo Kaga なるほど!numpyなんかは数学を勉強する上で使ったことがあったので、適時確認しながら進めてみます!松尾さん聞いたことあります学習コンテンツも公開していらっしゃるんですね。とても貴重な情報ありがとうございます🙇
プロットされた丸点が一個めっちゃ動いてるから分類できませんでした
これは完全に数学的な話なんですね。重心を求めるのも、重心からの距離を求めるのも、完全な数学なんですね。これとディープラーニングとの関連性については良く分からなかったんですが、、、
サムネ、超絶好調ヨビノリで草
クラスタ数も最適化できるのだろうか
これって分類数もわかってないときに使えるようにできないかな?
アンパンマンはパトロールやめて外出自粛してますか?
次元大介が機械学習ででて来るとは!
2:09 すべてを含む最小のグループとその他のグループに分けます
次元大介出ちゃうの好き
ngboostお願いします!
ファボゼロのボケ改め摩擦係数μ=0のボケ
クラスター
僕も飲めないけど、ドイツワインは美味しいですよ。
opencv使ったなー
サムネ奈良県で見かけた気がする
高〇早苗だな?w
知能情報システムのテスト前で見に来たよって人🙋♂️
おもしろー
今日は機械学習か
k-shapeとの違いがわからない
これはファボ0のボケですとか?
サムネが変わってるw
1か0かでわけるハードクラスタリングと同義なのかな
あれ?アンパンマンだぁぁぁぁぁぁぁぁ
おいこら
ねむいです
それクス
機械学習系の解説動画は難しいことがとても多いので大変わかりやすく解説してくれるのはとってもありがたいです。。。
仮眠(ka-means)してきたからよく理解できた
機械学習 関連
・【大学数学】ベイジアンネットワーク【機械学習】 → th-cam.com/video/zYKOL5RpVbo/w-d-xo.html
・【機械学習】深層学習(ディープラーニング)とは何か → th-cam.com/video/s5_Pk3CjhNA/w-d-xo.html
・【機械学習】クラスタリングとは何か(k-means) → 本動画
・【機械学習】教師あり学習と教師なし学習の違い → th-cam.com/video/U8uqieKYtY4/w-d-xo.html
おまけ
・Amazon Web Services Japan 公式/[K-2] 招待講演: 機械学習の「そと」と「なか」 → th-cam.com/video/aDKplnbBziM/w-d-xo.html
・クライン【KLeIn】/ヨビノリたくみにプログラミングについて聞いてみた。 → th-cam.com/video/lP1N3P6wBZk/w-d-xo.html
これ考えた人天才だろ
なんの分野か全く分からんかったけど全部見てしまった いつも僕の知らない世界を見せてくれてありがとうございます😊
自分の専門内容が予備ノリから出ると心に余裕をもって授業に挑める
アンパンマンさん今日もお疲れ様です
クラスタリングという用語をはじめてしりました。これから勉強します。
カーネル法も是非投稿してほしいです。カーネル法は応用性がすごく高いです。
いつもありがとうございます。機械学習もっと教えてください!!
本当にわかりやすい解説ですね…
このようなあまり聞き馴染みのない考え方でもわかるように説明できる能力憧れます。
私も解説動画頑張っていきます!!
ここでk-meansの話を聞けるとは
この前幼稚園に入学したのでこういう系の動画は助かります!
spssは「おいしさ」「色味」などの質的データを放り込むと、主成分分析や因子分析、判別分析など手品のようにポンポン提案してくれてスゲェなぁと思ってましたが、こう説明してもらうとそいつのキモチがなんとなく直感的にわかるようでうれしいです。
仕事でk-means使いました。
Rでの解析でしたのでぶっちゃけ中身は知る必要ないのですが、大雑把に原理を知っているとデータの説明にも説得力が出ますね。
次は主成分解析ついてお願いします
幅広いですねぇ...k-means が聞けるとは。前回の機械学習の動画で文字認識の話しておられましたし、次は教師ありの代表例として勾配法とか触れられるのでしょうか。楽しみです。
ほんとうにあった怖い話。
ヨビノリ たくみの顔がアンパンマンに見えた人がその後、、、、
研究室に配属決定から配属までの間に教授から出された課題が k-meansと混合ガウスモデルを理解して実装 だったなぁ
懐かしい
私の研究室ではk-meansを用いて制御を行っている同期がいました!
ヨビノリさんのおかげで同期の研究への理解が深まったと思います!
最近、機械学習に取り組んでいて、対象となるモデルの分析に数学、物理の知識が必要だと思い、教育系ユーチューバの方の動画を拝見しています。
ヨビノリさんの動画は若い方たちの学問への情熱が感じられて、若者の群像劇を見ている感もあり、見ていて楽しいです。おじさんに足りない熱量があります。
自分の興味あるテーマーはパレートの法則「80対20の法則」が成立する理由とか、社会生活の中で発生するエントロピーとは何かとか草
自分らしく、もっとクリエイティブに生きたいと願うなら、もっと自分を開放していかなきゃいけないですね。ヨビノリさんのボケ勉強になります。
よびのり流機械学習用語集
・教師なし合宿
・アル酸つよつよ
・次元の説明で次元大介
試験にでますか?
k-means勉強になりました。マンハッタン距離とか、マハラノビス距離で計算するパターンも聞きたくなりました。
いま k-means のプログラムを書いていますが、重心を動かす過程についての説明はバツグンにわかりやすかったです。ありがたや。
体調には気をつけてください
pythonで実装したのですが、あまり意味が分からずに使用していたので、動画を観て参考になりました。
小学生でも理解できるぐらい易しくていいですね
これからも機械学習シリーズお願いします!!
多次元でもできるのかを調べてたところこの動画にたどりつき、よくわかりました
こういう風に分けられてるのかと何だか裏側(仕組み)を知れて面白かったです!
勉強になります♪謝謝!
ワインの特徴のくだり…何気に好きなんだよなぁw(前回のも)
次回もワインのくだりあるかな〜♪
K -means、K平均法は、教師なし学習で行うデータのグループ分け、クラスタリング。n個にグループ分けする場合、最初にn個の点をランダムに打ち、この点に近いデータでグループ分けする。次に各グループの重心を求め、その重心に近いデータでグループ分けする。これをグループ分けの変化がなくなるまで繰り返し、グループ分けを終了する。ただし、最初に打ったランダムの点で結果が異なるので、何回か実施して最良のグループ分けを選択する。
講義じゃ全然わからんかったけどめっちゃわかりやすい、ありがてえ
課題全くわからなかったからほんとに助かる
第2弾!?
緊急事態宣言で機械学習の勉強始めました
要点をうまく説明できていると思います。
ワインあんまり知らないのに既に2回も例えててすこ
k-means初めて知りました。いわゆる「勉強」でない範囲の授業も楽しいです!
機械学習助かります
ありがとうございます
①のあとどうやってグループ分けするのか全然予想できなくて②③④と進むにつれなるほどー!となり面白かったです!
文系で計量分析を学んでいるのですが、すごく分かりやすくて助かりました。
クラスタの個数があらかじめわかっていない場合は難しいですよね。実務でやったときは1クラスタあたり何個くらいとドメイン知識で決め打ちしちゃった
要素の個数が分かっていて、全要素を2つにグループ分けを行うなら、打つ点は1つでも良さそうですね!(ランダムな点を打つ→その点に近い順に要素をランキング付けして上位半分を取る→重心を取る→その点に近い順に要素をランキング付けして上位半分を取る→…を任意回数繰り返す)
0:09ファボゼロのボケすんな
無理やりで申し訳ありません
ワインの例って、機械学習のサンプルでよくあるデータのやつですね。
Python machine learningって教科書で見ました。
次回はEMアルゴリズムですか()
この勉強をそのうち高校で勉強する時代が来るかもしれない
ヨビノリさんのAIシリーズ充実に期待します。
8:52次元大介は笑うしかない笑笑
クラスカル法とプリム法リクエストします!
待ってた!
ちょうど講義でやってるからありがたい
教師なし学習といえば強化学習(特にDQN)も熱いですよね
機械学習関連を解説してくれるのはほんとにありがたい
機械学習の中身も気が向いたら解説してほしい
誤差逆伝播法とか、最急降下法とか
偏微分を使ってた気がするけど結局何してんのかよくわからないままなんだよなぁ
ソニーが解説動画出してますよ!
makot ktjm やったーー!
分かりやすいー
僕は断然じげんより五ヱ門の方が好きです()
機械学習はワインとかタイタニックとかすきよな。
クラスタリングといえば、サポートベクタマシンも声に出したい数学用語ですよね
nchikun
クラスタリングではない、そういえばそうでしたね
ありがとうございます!
GAも解説期待してます
k-meansのクラスタリングはこの動画わかりやすいですよー
th-cam.com/video/4F80lCKzpEU/w-d-xo.html
大学化学の有機化学の動画見たいです!
お願いします🙇♂️
幼なじみのクラインさんを潰しにいくスタイルのアンパンマン
ワインの話してなくてもカッコいいですよ
私の知っているk-meansでは、
最初の分類は、n個のインスタンスの中から、k個をランダムに選んでクラスター分類する方法だったのですが、インスタンスからではなく座標をランダムに選ぶ方法でも大丈夫なのでしょうか。
もし、座標からランダムに選ぶのであれば、外れ値すぎて分類できない事態が起こる可能性がある気がします。
こういうのって、軽くプログラム組んで動作してるの見たい気もする。
距離の定義にも触れてほしかったなあ.
文系学部ですがお世話になってます
観てます!🐻🎀
0:58~ スパムメール(迷惑メール)とハムメール(迷惑メールじゃないメール、平気メール)ですね
これもし
xがすごい偶然で
データが一個も含まれないようなやつが選ばれたらどこへ飛ぶんだろう
ooo ooo
ooo ooo x1 x2
ooo oo
みたいな
この調子でDeepLearningなんかもお願いします。
この動画を確立統計の再生リストに入れ忘れてるヨ
たくみさんはどういうパラメータで教師なし学習をして、分けているんでしょうか、、、
顔を
(means:機械学習シリーズありがとぉぉぉぉヨビノリは最高だよぉぉぉぉ)
ヨビノリさんがあげていたのを見て、k-meansのクラスタ数決める話したんで興味ある方は見てください
迷惑メールのことをよく「スパム」といいますが、迷惑メールではないメールのことを「ハム」といいます。
初めて知ったわ 使ってこ
サムネがねじれの位置
機械学習とか深層学習を身に着けたいけど、先に数学の知識をつけたほうがいいのかなと悩みながら、とりあえず線形代数の教科書を最初っから復習し始めてる今日このごろ。統計の教科書持ってないのは詰みなのか。
先に使ってみるのが吉
とりあえず「Chainer チュートリアル」をやってみるといいと思います
最低限必要な数学の知識とPythonなどの知識を得られますよ
popo Kaga chainerと調べると、開発終了みたいな記事が出てきますがチュートリアルとしては問題ないんでしょうか。
@@ai2012 chainerの部分に関しては,”フレームワーク”となりますので,PytorchやTensorFlowなどお好きなものを選べます.
それ以前の数学の知識やNumpyやMatplotlibといったPythonライブラリの入門に最適なのでご紹介しました.
説明不足ですみません.
追記です.
Chainerチュートリアルの準備編と7,8,9,12章をやったあと,東大松尾研が公開しているdl4usやってみるといいかもしれません.
popo Kaga なるほど!numpyなんかは数学を勉強する上で使ったことがあったので、適時確認しながら進めてみます!松尾さん聞いたことあります学習コンテンツも公開していらっしゃるんですね。とても貴重な情報ありがとうございます🙇
プロットされた丸点が一個めっちゃ動いてるから分類できませんでした
これは完全に数学的な話なんですね。重心を求めるのも、重心からの距離を求めるのも、完全な数学なんですね。これとディープラーニングとの関連性については良く分からなかったんですが、、、
サムネ、超絶好調ヨビノリで草
クラスタ数も最適化できるのだろうか
これって分類数もわかってないときに使えるようにできないかな?
アンパンマンはパトロールやめて外出自粛してますか?
次元大介が機械学習ででて来るとは!
2:09 すべてを含む最小のグループとその他のグループに分けます
次元大介出ちゃうの好き
ngboostお願いします!
ファボゼロのボケ改め摩擦係数μ=0のボケ
クラスター
僕も飲めないけど、ドイツワインは美味しいですよ。
opencv使ったなー
サムネ奈良県で見かけた気がする
高〇早苗だな?w
知能情報システムのテスト前で見に来たよって人🙋♂️
おもしろー
今日は機械学習か
k-shapeとの違いがわからない
これはファボ0のボケですとか?
サムネが変わってるw
1か0かでわけるハードクラスタリングと同義なのかな
あれ?
アンパンマンだぁぁぁぁぁぁぁぁ
おいこら
ねむいです
それクス