ขนาดวิดีโอ: 1280 X 720853 X 480640 X 360
แสดงแผงควบคุมโปรแกรมเล่น
เล่นอัตโนมัติ
เล่นใหม่
【視聴ガイド】02:00 統計学と機械学習の違い03:40 統計学と機械学習を使い分ける場面05:10 どんな手法が統計学と機械学習で使われるのか05:50 統計的検定06:26 線形回帰分析07:06 主成分分析08:10 決定木08:28 ランダムフォレスト08:42 Xgboost
本当に理解できたのか疑うくらいわかりやすすぎる。
漠然と学習していましたがそれぞれの違いからその役割を何となく理解し整理することができました。
よかったです!ありがとうございます。
わかりやすいです!!
ありがとうございます!!
とてもわかりやすい!!本を読むよりこの動画!ですね。これが無料というのはあり得ない。。すばらしいです。あありがとう!!!
ありがとうございます!励みになります!
機械学習は、ITの要素を取り込んで統計学の一部について結果を重視する方向に発展させたものと思ってます。統計学から派生したものではないと思いますが。このところは結果の解釈性も求められるようになり、本来の統計的要素の重要性も増していて、さらに境目が曖昧になっている印象です。
ありがとうございます!おっしゃる通りですよねー!
単なる数字から、data⇒information⇒intelligenceとする過程で統計学は必要で、その昔、第一次石油ショックの頃、需要の予測から生産計画システムで使う先行指標を求めるためにFORTRANでプログラムを書いたことがありますが、対象とする目的というか業務を理解しているか否かが問われると思います。その手段としての統計と理解しています。機械学習・・・機械が自律的に学習するのでしょうか?あまりピンときません・・・
統計モデリングの回帰分析、重回帰、一般化線形混合モデルなどは、統計学の線形回帰分析の中に位置づけられるという解釈で合っていますか?
一般化線形混合モデルの中に一般化線形モデルがあり、その中に一般線形モデル(これがいわゆる線形回帰分析)があり、そして単変数であれ単回帰、多変量であれば重回帰になります。回帰分析というとより定義が広くなるのですが重回帰分析を指すことも多いです。機械学者領域でも回帰タスクなのか分類タスクなのか問われるように回帰という言葉時代は量的変数をターゲットにしたモデル構築という定義になります!
分かりづらいですよね・・・説明変数が複数の解析手法を総じて多変量解析と定義します。厳密にはパラメトリックもノンパラメトリックも変数の数で多変量解析なのかそうでないのか決まりますね。数量化1類も実は単変量なら多変量解析の定義には当てはまらないですが、多変量解析とくくってしまっていいと思います。
南米チリから見てます!
ありがとうございます!!チリ行ってみたいです!
統計ど素人なんですが、最小二乗法で回帰直線求めるっていう記述を読みましたでもこれって機械学習では誤差逆伝播使って微分して最小値求めて……ってやるやつですよね?公式もあるようなので最小二乗法使えば楽なのに、なぜ機械学習手法使うのでしょうか?と疑問に思いました
観測値と予測値の差を小さくするという意味では統計学的アプローチも機械学習的アプローチも一緒です!最小二乗法は観測値と予測値の平均二乗誤差を最小化するアプローチです。誤差逆伝播法はあくまでディープラーニングで使われる最適化のアプローチに対して効率よく最適解を求めるためのテクニックであり最小二乗法とは粒度が違いますディープラーニングにおいて損失関数を平均二乗誤差にすれば最小二乗法と同じ考え方で最適化していくことになります。ただ、ディープラーニングではパラメータ数やデータ数が多いので、最適化のために単純に偏微分して・・・では難しく勾配降下法と誤差逆伝播法で最適解を求めます!
丁寧な説明ありがとうございます
4:54
私は経済学部の学生ですが大学院では統計学を専攻したいです。
是非頑張ってください!
統計学も機械学習もサイコー (^^)/
ありがとうございます!
なんでツリー構造の機械学習しか紹介してないんだ
ななしのあおあふ たしかにwすいません!全部ツリー構造ですね。。nn、svmあたりも入れておくべきでした
【視聴ガイド】
02:00 統計学と機械学習の違い
03:40 統計学と機械学習を使い分ける場面
05:10 どんな手法が統計学と機械学習で使われるのか
05:50 統計的検定
06:26 線形回帰分析
07:06 主成分分析
08:10 決定木
08:28 ランダムフォレスト
08:42 Xgboost
本当に理解できたのか疑うくらいわかりやすすぎる。
漠然と学習していましたが
それぞれの違いからその役割を何となく理解し整理することができました。
よかったです!ありがとうございます。
わかりやすいです!!
ありがとうございます!!
とてもわかりやすい!!本を読むよりこの動画!ですね。これが無料というのはあり得ない。。すばらしいです。あありがとう!!!
ありがとうございます!励みになります!
機械学習は、ITの要素を取り込んで統計学の一部について結果を重視する方向に発展させたものと思ってます。統計学から派生したものではないと思いますが。
このところは結果の解釈性も求められるようになり、本来の統計的要素の重要性も増していて、さらに境目が曖昧になっている印象です。
ありがとうございます!おっしゃる通りですよねー!
単なる数字から、data⇒information⇒intelligenceとする過程で統計学は必要で、その昔、第一次石油ショックの頃、需要の予測から生産計画システムで使う先行指標を求めるためにFORTRANでプログラムを書いたことがありますが、対象とする目的というか業務を理解しているか否かが問われると思います。その手段としての統計と理解しています。機械学習・・・機械が自律的に学習するのでしょうか?あまりピンときません・・・
統計モデリングの回帰分析、重回帰、一般化線形混合モデルなどは、統計学の線形回帰分析の中に位置づけられるという解釈で合っていますか?
一般化線形混合モデルの中に一般化線形モデルがあり、その中に一般線形モデル(これがいわゆる線形回帰分析)があり、そして単変数であれ単回帰、多変量であれば重回帰になります。
回帰分析というとより定義が広くなるのですが重回帰分析を指すことも多いです。
機械学者領域でも回帰タスクなのか分類タスクなのか問われるように回帰という言葉時代は量的変数をターゲットにしたモデル構築という定義になります!
分かりづらいですよね・・・説明変数が複数の解析手法を総じて多変量解析と定義します。厳密にはパラメトリックもノンパラメトリックも変数の数で多変量解析なのかそうでないのか決まりますね。数量化1類も実は単変量なら多変量解析の定義には当てはまらないですが、多変量解析とくくってしまっていいと思います。
南米チリから見てます!
ありがとうございます!!チリ行ってみたいです!
統計ど素人なんですが、最小二乗法で回帰直線求めるっていう記述を読みました
でもこれって機械学習では誤差逆伝播使って微分して最小値求めて……ってやるやつですよね?
公式もあるようなので最小二乗法使えば楽なのに、なぜ機械学習手法使うのでしょうか?
と疑問に思いました
観測値と予測値の差を小さくするという意味では統計学的アプローチも機械学習的アプローチも一緒です!
最小二乗法は観測値と予測値の平均二乗誤差を最小化するアプローチです。
誤差逆伝播法はあくまでディープラーニングで使われる最適化のアプローチに対して効率よく最適解を求めるためのテクニックであり最小二乗法とは粒度が違います
ディープラーニングにおいて損失関数を平均二乗誤差にすれば最小二乗法と同じ考え方で最適化していくことになります。
ただ、ディープラーニングではパラメータ数やデータ数が多いので、最適化のために単純に偏微分して・・・では難しく勾配降下法と誤差逆伝播法で最適解を求めます!
丁寧な説明ありがとうございます
4:54
私は経済学部の学生ですが大学院では統計学を専攻したいです。
是非頑張ってください!
統計学も機械学習もサイコー (^^)/
ありがとうございます!
なんでツリー構造の機械学習しか紹介してないんだ
ななしのあおあふ たしかにwすいません!全部ツリー構造ですね。。nn、svmあたりも入れておくべきでした