【機械学習に取り組むあなたにささげる】softmax function について語るよ!【関数がたり】

  Рет қаралды 18,117

AIcia Solid Project

AIcia Solid Project

Күн бұрын

Пікірлер: 42
@yobinori
@yobinori 6 жыл бұрын
ファボゼロのボケすんな!
@AIcia_Solid
@AIcia_Solid 6 жыл бұрын
前回と比べてファボが2倍になっています! 幸先いいですね(^o^)b
@virtualnumber2556
@virtualnumber2556 3 жыл бұрын
本質をついててわかりやすくて感動しました。いい感じの人見つけました。ほかの動画も見ます!
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
ご視聴コメントありがとうございます!!!😍🎉 ぜひぜひ、お楽しみください😋🎉
@羽生田栄一
@羽生田栄一 Жыл бұрын
関数の気持ちがよくわかりました!さいごの数値で感覚を味わう説明もすばらしかった。これからもよろしくお願いいたします。
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ご視聴コメントありがとうございます!🎉 お役に立てて光栄です!🤩🤩🤩
@アクセスアクセス
@アクセスアクセス 4 ай бұрын
研究でなんとなくでずっと使っていたのでこの動画に会えてよかったです!
@AIcia_Solid
@AIcia_Solid 4 ай бұрын
ご視聴コメントありがとうございます🥳 この感覚あると色々わかりやすいと思います。ぜひこの理解をご活用くださいませ〜!🎉
@salsanotomo
@salsanotomo 3 жыл бұрын
Deep Learningを頭に入れた考えると、この変換の意味と便利さがよくわかります。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
でしょでしょ😍 便利なんですよほんとに!!
@yukio_takagi6429
@yukio_takagi6429 3 жыл бұрын
ディープラーニングの世界vol10からリンク追ってきました。シグモイド関数、わかってたつもりだけど、もっとわかるようになってきた。人口増加問題につかえるなんて。。「開発に人を投入すると、人数の二乗分バグも増えてしまう」という理論もこれだったんですね。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
ご視聴いただけて嬉しいです!😍🎉 この子はとてもきれいでよく使われるので、ぜひ使い倒して上げてください!🎉🎉🎉
@KK-rl5bs
@KK-rl5bs 3 жыл бұрын
本質的なことが述べてあるもの初めてみました。ありがとうございます。 人工知能っていっても数学の世界から生まれたものだから、数学が本質的にわかっている人の解説は為になります。
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
ご視聴コメントありがとうございます😊 そういっていただけると何よりです😊😊😊
@嵐を呼ぶバヌシオー
@嵐を呼ぶバヌシオー Жыл бұрын
最後の具体的な数字での、e*3.1 or e*5.1での変化量の違いはとても直感的に理解しやすかったです!マジ卍
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ご視聴コメントありがとうございます!!🤩🎉🎉🎉 それはとても良かったです!😍
@kantaro1966
@kantaro1966 6 жыл бұрын
笑えたけど、パンツが見えなくなっちゃったのはちょっと残念。
@AIcia_Solid
@AIcia_Solid 6 жыл бұрын
コンプライアンス対策です😎👍 貫太郎さんもパンチラだけは気を付けてくださいね(^o^)
@kantaro1966
@kantaro1966 6 жыл бұрын
Aicia Solid Project 最近は履いている
@AIcia_Solid
@AIcia_Solid 6 жыл бұрын
私と一緒ですね!お互いパンツには気を付けながら今後も活動していきましょう😀
@Dr.Ks_Labo
@Dr.Ks_Labo 5 жыл бұрын
機械学習とまではいかない普通のデータ分析しかやってませんが、多水準名義尺度を目的変数としたロジスティック回帰がこの関数形を使ってるんですよね。マーケティングリサーチ分野におけるコンジョイント分析やその結果に基づくシェア分析シミュレーションなどでもこの関数使ってるんでしょうね。古典的な官能評価の分野でも、たしかブラッドレーの方法っていうんだっけな、尺度値の比で選択確率を表現するモデルがあるんだが、それもこの関数形に帰着されそうです。(曖昧な知識で裏付けナシで無責任に書いてます)
@AIcia_Solid
@AIcia_Solid 5 жыл бұрын
こちらもご覧いただきありがとうございます😍 ブラッドれーの方法はあまり詳しくないのでわかりません。すみません、、、! 尺度値(の構成比率)の比(の対数)をとったものが今回の関数の入力に対応すると思うので、そういう文脈のものであれば、背後はつながるのではないか?とおもいます!
@Dr.Ks_Labo
@Dr.Ks_Labo 5 жыл бұрын
@@AIcia_Solid 返信ありがとうございます。こんな記事あったので、ブラッドレーこの関数形のようです。 ifs.nog.cc/k-dai.hp.infoseek.co.jp/dai_01_bu/yougo-H.htm
@AIcia_Solid
@AIcia_Solid 5 жыл бұрын
なるほど、ありがとうございます! ブラッドレーの方法も今回の softmax や、1つ前の logistic sigmoid と同じものを使っているみたいですね! 1つくわしくなりました。ありがとうございます😎
@Shinichiro_Higuchi
@Shinichiro_Higuchi Жыл бұрын
物理学の世界では、統計力学での分配関数だったりしますね。4年も前にこんな動画があったとは!😲
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ご視聴コメントありがとうございます!🎉 まさに分配関数ですよね〜🤤 そういう物理とのつながりは大好物です! 他にも色々動画がありますので、気が向きましたらぜひ楽しんでみていただけると嬉しいです😊
@Shinichiro_Higuchi
@Shinichiro_Higuchi Жыл бұрын
@@AIcia_Solid さん、こちらこそ、動画でAIの勉強させていただいています物理学科出身の者です。ありがとうございます!仕事でどうしてもAI的画像認識処理、文字認識処理を実装する必要がありまして、少しずつ動画を視聴させていただいています(ちょっと必死)。今後とも、よろしくお願いいたします。
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ご活用いただけるととても嬉しいです!🤩🎉 大変な道かもですが、その先はとても楽しいですよ!(^o^) 応援しております!🔥
@void2extern189
@void2extern189 2 жыл бұрын
softmax関数はベクトルを引数に取ってベクトルを返す関数ってことを知ることが出来た。これが、他の活性化関数、Sigmoid, ReLU, tanhとは異なる。ΔN-1はN-1次元単体と呼ばれるものだそうな。
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
ご視聴コメントありがとうございます🎉 楽しんでいただけたようで私も嬉しいです😊
@ryufukaya1848
@ryufukaya1848 2 жыл бұрын
ありがとうございます!
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
ご支援いただきありがとうございます!!! これからも良い動画をせいせいしていきますので、応援頂けると嬉しいです! よろしくお願いします!(^o^)
@maedatakuro2739
@maedatakuro2739 4 жыл бұрын
シグモイドとソフトマックスの使い分けのポイントをご教授いただけるとありがたいです。どっちも使いやすいのはわかるのですが、実際使い分ける時にどう考えればよいのかが悩みどころです。
@AIcia_Solid
@AIcia_Solid 4 жыл бұрын
ざっくりとは、0~1の値がほしいときはシグモイド、足して1になる0以上の数値の集まり(確率)がほしいときはソフトマックスというのがイメージしやすいと思います(^o^)/
@bigbangnuc
@bigbangnuc Жыл бұрын
ぬぅぁるほど~~~~~~。です。感謝。
@AIcia_Solid
@AIcia_Solid Жыл бұрын
そうなんですーーーーー! お役に立てて光栄です🤩🎉 他にも色んな動画があるので、気が向いたらぜひ見てみてください(^o^)
@kyohei3552
@kyohei3552 Жыл бұрын
yが全部正で合計が1なのは、yが確率であることの十分条件ではなく、必要条件でしかないように思えてしまうんですよねぇ。確率だと解釈してるだけ、ってことなら分かるんですが。
@AIcia_Solid
@AIcia_Solid Жыл бұрын
ご視聴コメントありがとうございます! まさにおっしゃるとおりで、確率として解釈しているだけ、ってことです。 (あり得る確率分布全体への全射であれば望ましいですが、実用上そうでなくとも問題ないことがおおいので、このまま活用されています。 Sparsemax 関数など、全射性を得ているものも存在します)
@naninanya
@naninanya 2 жыл бұрын
最初のコントの落ちは、ホールドアウト法かと思った。
@AIcia_Solid
@AIcia_Solid 2 жыл бұрын
なるほど🤔 それも面白そうですね😂
@manbodama
@manbodama 3 жыл бұрын
21:34 1.7倍したら大変なことなっちまう
@AIcia_Solid
@AIcia_Solid 3 жыл бұрын
あ😮 言い間違えてますね😮 てへぺろ😋
1, 2, 3, 4, 5, 6, 7, 8, 9 🙈⚽️
00:46
Celine Dept
Рет қаралды 56 МЛН
They Chose Kindness Over Abuse in Their Team #shorts
00:20
I migliori trucchetti di Fabiosa
Рет қаралды 9 МЛН
Osman Kalyoncu Sonu Üzücü Saddest Videos Dream Engine 275 #shorts
00:29
小丑揭穿坏人的阴谋 #小丑 #天使 #shorts
00:35
好人小丑
Рет қаралды 40 МЛН
「株価の予測 LSTM編」をつくりました。
14:45
テラオカ電子
Рет қаралды 4,8 М.
【12分で分かる】パーセプトロン(ディープラーニングの基礎)を徹底的に理解しよう!
12:46
スタビジ【誰でもAIデータサイエンス】byウマたん
Рет қаралды 11 М.
Deep Learning精度向上テクニック:様々な最適化手法 #1
17:51
Neural Network Console
Рет қаралды 30 М.
1, 2, 3, 4, 5, 6, 7, 8, 9 🙈⚽️
00:46
Celine Dept
Рет қаралды 56 МЛН