【深層学習】活性化関数|ReLU、シグモイド関数、ソフトマックス関数

  Рет қаралды 35,122

Able Programming

Able Programming

Күн бұрын

Пікірлер: 13
@hisatok9777
@hisatok9777 5 жыл бұрын
神動画、有難うございます!
@kohe4488
@kohe4488 6 жыл бұрын
毎度楽しみにしています! ありがとうございます。
@y43014
@y43014 4 жыл бұрын
とてもわかりやすいです。ありがとうございます!
@zazzyjan1397
@zazzyjan1397 5 жыл бұрын
ほとんどの場合、中間層の活性化関数には、このReLUが用いられる。入力が0以上ならその値を出力とし、0以下 なら0を出力する。
@紅クリイム
@紅クリイム 5 жыл бұрын
ReLUはランプ関数って読みます
@アルフォート-i6e
@アルフォート-i6e 5 жыл бұрын
自分が一気に頭良くなったような錯覚にとらわれる… 偏差値を10上げた時の先生や中田敦彦の話きいた時と同じ感覚 つまりめちゃくちゃ解説がわかりやすいです!!! 自分みたいな機械学習専門外で取っ掛かりが欲しい人が沢山いると思うと、この動画は100万再生の価値がある😭
@食用お味噌汁
@食用お味噌汁 4 жыл бұрын
結局、教育界で実績のあるヨビノリたくみさんがミリオン行かれましたね
@げはな-o5s
@げはな-o5s 6 жыл бұрын
深層学習って第何回くらいまである予定ですか??
@ableprogramming892
@ableprogramming892 6 жыл бұрын
次回は損失関数、その次は誤差逆伝播法について話す予定です。 その後は、CNNやRNNについても解説したいですし、適宜簡単な実装も行いたいので、あと10回くらいはあると思います。 とは言っても、なかなか準備は進んでいません…笑
@げはな-o5s
@げはな-o5s 6 жыл бұрын
Able Programming ありがとうございます! 楽しみにしてるんで頑張ってください!!笑
@manbodama
@manbodama 4 жыл бұрын
@@ableprogramming892 今見ているところですが、わかりやすくてめっちゃタメになります。必ずシリーズ最後まで見ようと思います。
@takayamayoshikazu2782
@takayamayoshikazu2782 3 жыл бұрын
1:38 回帰問題?怪奇問題? なんとも怪奇な単語だ
@narumio3619
@narumio3619 3 жыл бұрын
😎💩
小丑揭穿坏人的阴谋 #小丑 #天使 #shorts
00:35
好人小丑
Рет қаралды 40 МЛН
Yay, My Dad Is a Vending Machine! 🛍️😆 #funny #prank #comedy
00:17
Seja Gentil com os Pequenos Animais 😿
00:20
Los Wagners
Рет қаралды 91 МЛН
Каха и лужа  #непосредственнокаха
00:15
【深層学習】誤差逆伝播法|バックプロパゲーション
36:01
Deep Learning入門:ニューラルネットワーク設計の基礎
18:38
Neural Network Console
Рет қаралды 172 М.
高校数学からはじめる深層学習入門(畳み込みニューラルネットワークの理解)
55:35
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 339 М.
小丑揭穿坏人的阴谋 #小丑 #天使 #shorts
00:35
好人小丑
Рет қаралды 40 МЛН