【機械学習に取り組むあなたにささげる】softmax function について語るよ!【関数がたり】

แชร์
ฝัง
  • เผยแพร่เมื่อ 29 ธ.ค. 2024

ความคิดเห็น • 42

  • @yobinori
    @yobinori 6 ปีที่แล้ว +40

    ファボゼロのボケすんな!

    • @AIcia_Solid
      @AIcia_Solid  6 ปีที่แล้ว +6

      前回と比べてファボが2倍になっています!
      幸先いいですね(^o^)b

  • @virtualnumber2556
    @virtualnumber2556 4 ปีที่แล้ว +8

    本質をついててわかりやすくて感動しました。いい感じの人見つけました。ほかの動画も見ます!

    • @AIcia_Solid
      @AIcia_Solid  4 ปีที่แล้ว +1

      ご視聴コメントありがとうございます!!!😍🎉
      ぜひぜひ、お楽しみください😋🎉

  • @ryufukaya1848
    @ryufukaya1848 2 ปีที่แล้ว

    ありがとうございます!

    • @AIcia_Solid
      @AIcia_Solid  2 ปีที่แล้ว +1

      ご支援いただきありがとうございます!!!
      これからも良い動画をせいせいしていきますので、応援頂けると嬉しいです!
      よろしくお願いします!(^o^)

  • @羽生田栄一
    @羽生田栄一 ปีที่แล้ว

    関数の気持ちがよくわかりました!さいごの数値で感覚を味わう説明もすばらしかった。これからもよろしくお願いいたします。

    • @AIcia_Solid
      @AIcia_Solid  ปีที่แล้ว

      ご視聴コメントありがとうございます!🎉
      お役に立てて光栄です!🤩🤩🤩

  • @アクセスアクセス
    @アクセスアクセス 6 หลายเดือนก่อน

    研究でなんとなくでずっと使っていたのでこの動画に会えてよかったです!

    • @AIcia_Solid
      @AIcia_Solid  6 หลายเดือนก่อน

      ご視聴コメントありがとうございます🥳
      この感覚あると色々わかりやすいと思います。ぜひこの理解をご活用くださいませ〜!🎉

  • @salsanotomo
    @salsanotomo 3 ปีที่แล้ว +2

    Deep Learningを頭に入れた考えると、この変換の意味と便利さがよくわかります。

    • @AIcia_Solid
      @AIcia_Solid  3 ปีที่แล้ว +1

      でしょでしょ😍
      便利なんですよほんとに!!

  • @KK-rl5bs
    @KK-rl5bs 3 ปีที่แล้ว +1

    本質的なことが述べてあるもの初めてみました。ありがとうございます。 人工知能っていっても数学の世界から生まれたものだから、数学が本質的にわかっている人の解説は為になります。

    • @AIcia_Solid
      @AIcia_Solid  3 ปีที่แล้ว

      ご視聴コメントありがとうございます😊
      そういっていただけると何よりです😊😊😊

  • @嵐を呼ぶバヌシオー
    @嵐を呼ぶバヌシオー ปีที่แล้ว

    最後の具体的な数字での、e*3.1 or e*5.1での変化量の違いはとても直感的に理解しやすかったです!マジ卍

    • @AIcia_Solid
      @AIcia_Solid  ปีที่แล้ว

      ご視聴コメントありがとうございます!!🤩🎉🎉🎉
      それはとても良かったです!😍

  • @kantaro1966
    @kantaro1966 6 ปีที่แล้ว +13

    笑えたけど、パンツが見えなくなっちゃったのはちょっと残念。

    • @AIcia_Solid
      @AIcia_Solid  6 ปีที่แล้ว +3

      コンプライアンス対策です😎👍
      貫太郎さんもパンチラだけは気を付けてくださいね(^o^)

    • @kantaro1966
      @kantaro1966 6 ปีที่แล้ว +3

      Aicia Solid Project
      最近は履いている

    • @AIcia_Solid
      @AIcia_Solid  6 ปีที่แล้ว +1

      私と一緒ですね!お互いパンツには気を付けながら今後も活動していきましょう😀

  • @yukio_takagi6429
    @yukio_takagi6429 4 ปีที่แล้ว +1

    ディープラーニングの世界vol10からリンク追ってきました。シグモイド関数、わかってたつもりだけど、もっとわかるようになってきた。人口増加問題につかえるなんて。。「開発に人を投入すると、人数の二乗分バグも増えてしまう」という理論もこれだったんですね。

    • @AIcia_Solid
      @AIcia_Solid  4 ปีที่แล้ว

      ご視聴いただけて嬉しいです!😍🎉
      この子はとてもきれいでよく使われるので、ぜひ使い倒して上げてください!🎉🎉🎉

  • @maedatakuro2739
    @maedatakuro2739 4 ปีที่แล้ว

    シグモイドとソフトマックスの使い分けのポイントをご教授いただけるとありがたいです。どっちも使いやすいのはわかるのですが、実際使い分ける時にどう考えればよいのかが悩みどころです。

    • @AIcia_Solid
      @AIcia_Solid  4 ปีที่แล้ว +2

      ざっくりとは、0~1の値がほしいときはシグモイド、足して1になる0以上の数値の集まり(確率)がほしいときはソフトマックスというのがイメージしやすいと思います(^o^)/

  • @Dr.Ks_Labo
    @Dr.Ks_Labo 6 ปีที่แล้ว +1

    機械学習とまではいかない普通のデータ分析しかやってませんが、多水準名義尺度を目的変数としたロジスティック回帰がこの関数形を使ってるんですよね。マーケティングリサーチ分野におけるコンジョイント分析やその結果に基づくシェア分析シミュレーションなどでもこの関数使ってるんでしょうね。古典的な官能評価の分野でも、たしかブラッドレーの方法っていうんだっけな、尺度値の比で選択確率を表現するモデルがあるんだが、それもこの関数形に帰着されそうです。(曖昧な知識で裏付けナシで無責任に書いてます)

    • @AIcia_Solid
      @AIcia_Solid  6 ปีที่แล้ว +1

      こちらもご覧いただきありがとうございます😍
      ブラッドれーの方法はあまり詳しくないのでわかりません。すみません、、、!
      尺度値(の構成比率)の比(の対数)をとったものが今回の関数の入力に対応すると思うので、そういう文脈のものであれば、背後はつながるのではないか?とおもいます!

    • @Dr.Ks_Labo
      @Dr.Ks_Labo 6 ปีที่แล้ว

      @@AIcia_Solid 返信ありがとうございます。こんな記事あったので、ブラッドレーこの関数形のようです。
      ifs.nog.cc/k-dai.hp.infoseek.co.jp/dai_01_bu/yougo-H.htm

    • @AIcia_Solid
      @AIcia_Solid  6 ปีที่แล้ว

      なるほど、ありがとうございます!
      ブラッドレーの方法も今回の softmax や、1つ前の logistic sigmoid と同じものを使っているみたいですね!
      1つくわしくなりました。ありがとうございます😎

  • @Shinichiro_Higuchi
    @Shinichiro_Higuchi ปีที่แล้ว

    物理学の世界では、統計力学での分配関数だったりしますね。4年も前にこんな動画があったとは!😲

    • @AIcia_Solid
      @AIcia_Solid  ปีที่แล้ว +1

      ご視聴コメントありがとうございます!🎉
      まさに分配関数ですよね〜🤤
      そういう物理とのつながりは大好物です!
      他にも色々動画がありますので、気が向きましたらぜひ楽しんでみていただけると嬉しいです😊

    • @Shinichiro_Higuchi
      @Shinichiro_Higuchi ปีที่แล้ว

      @@AIcia_Solid さん、こちらこそ、動画でAIの勉強させていただいています物理学科出身の者です。ありがとうございます!仕事でどうしてもAI的画像認識処理、文字認識処理を実装する必要がありまして、少しずつ動画を視聴させていただいています(ちょっと必死)。今後とも、よろしくお願いいたします。

    • @AIcia_Solid
      @AIcia_Solid  ปีที่แล้ว +1

      ご活用いただけるととても嬉しいです!🤩🎉
      大変な道かもですが、その先はとても楽しいですよ!(^o^)
      応援しております!🔥

  • @void2extern189
    @void2extern189 2 ปีที่แล้ว

    softmax関数はベクトルを引数に取ってベクトルを返す関数ってことを知ることが出来た。これが、他の活性化関数、Sigmoid, ReLU, tanhとは異なる。ΔN-1はN-1次元単体と呼ばれるものだそうな。

    • @AIcia_Solid
      @AIcia_Solid  2 ปีที่แล้ว

      ご視聴コメントありがとうございます🎉
      楽しんでいただけたようで私も嬉しいです😊

  • @bigbangnuc
    @bigbangnuc ปีที่แล้ว

    ぬぅぁるほど~~~~~~。です。感謝。

    • @AIcia_Solid
      @AIcia_Solid  ปีที่แล้ว

      そうなんですーーーーー!
      お役に立てて光栄です🤩🎉
      他にも色んな動画があるので、気が向いたらぜひ見てみてください(^o^)

  • @naninanya
    @naninanya 2 ปีที่แล้ว

    最初のコントの落ちは、ホールドアウト法かと思った。

    • @AIcia_Solid
      @AIcia_Solid  2 ปีที่แล้ว

      なるほど🤔
      それも面白そうですね😂

  • @kyohei3552
    @kyohei3552 ปีที่แล้ว

    yが全部正で合計が1なのは、yが確率であることの十分条件ではなく、必要条件でしかないように思えてしまうんですよねぇ。確率だと解釈してるだけ、ってことなら分かるんですが。

    • @AIcia_Solid
      @AIcia_Solid  ปีที่แล้ว +1

      ご視聴コメントありがとうございます!
      まさにおっしゃるとおりで、確率として解釈しているだけ、ってことです。
      (あり得る確率分布全体への全射であれば望ましいですが、実用上そうでなくとも問題ないことがおおいので、このまま活用されています。
      Sparsemax 関数など、全射性を得ているものも存在します)

  • @manbodama
    @manbodama 3 ปีที่แล้ว

    21:34 1.7倍したら大変なことなっちまう

    • @AIcia_Solid
      @AIcia_Solid  3 ปีที่แล้ว

      あ😮
      言い間違えてますね😮
      てへぺろ😋