Deep Learning精度向上テクニック:様々な最適化手法 #1

  Рет қаралды 30,106

Neural Network Console

Neural Network Console

Күн бұрын

Пікірлер: 12
@有休の旅人
@有休の旅人 17 күн бұрын
SGDはあくまで最も下に降る方向に対して移動するので、例のような等高線を持つ誤差関数では、等高線に対して直交、等高線の間隔が狭い縦間での移動によって最適解に近づいていくので、横方向には移動できず最適解に到達するまで時間がかかるわけですね。また、ロスの小さい等高線を通り過ぎないように、学習率を小さくすると更新量が小さくなって最適化に時間を要しすぎると。 そこで、より高速で最適解に辿り着く方法として以下の通りあると。 1.Momentum法 更新量について、最急降下方向に加えて、前回からの更新方向も加味してパラメータを更新。稜線付近ではSGDは1次の負の自己相関のように正負を繰り返すが、Momentumは過去からの更新量も加えて加味するので符号が相殺されて、ジグザグせずにスムーズに最適解へ向かえる。
@mtmotoki2
@mtmotoki2 3 жыл бұрын
RMSPropの式の意味がよくわかってなかったんですが、この動画の説明でりかいできました。ありがとうございます
@iamtherefore278
@iamtherefore278 3 жыл бұрын
ド素人だけど今回の動画でかなり理解が進んだ
@bigbangnuc
@bigbangnuc Жыл бұрын
わかりやすっ。感謝です。
@takumih7276
@takumih7276 4 жыл бұрын
分かりやすい!!
@mumumu_you
@mumumu_you 4 жыл бұрын
手法ごとの違いが目に見えてとてもわかりやすい
@うなな-d2e
@うなな-d2e Жыл бұрын
RMSはRouteMeanSquareのことなのか、納得!
@poe0611
@poe0611 2 жыл бұрын
BGMなしバージョンが欲しいです。
@競馬のひとりごと
@競馬のひとりごと 2 жыл бұрын
MomentumとNAGの更新式において正負の符号が逆だと思います。慣性項が加算でなく減算されてしまうので。 また、勾配をデルタで表記してますが、微分演算子のナブラが適切ではないでしょうか。 以上、気になる点を挙げましたが、E資格の勉強に役立つ動画です。ありがとうございます。
@MorningChoco
@MorningChoco 3 жыл бұрын
小林さん説明うますぎ!!
@cheejpn
@cheejpn Жыл бұрын
私もBGMなしバージョンがあるといいな、と思いました
@刹那しあ
@刹那しあ 4 ай бұрын
Adamすごっww
Deep Learning精度向上テクニック:様々なCNN #1
10:03
Neural Network Console
Рет қаралды 44 М.
2 MAGIC SECRETS @denismagicshow @roman_magic
00:32
MasomkaMagic
Рет қаралды 29 МЛН
Deep Learning習得と人材育成のコツ(初学者向け)
10:35
Neural Network Console
Рет қаралды 29 М.
Deep Learning入門:マルチタスク学習
14:38
Neural Network Console
Рет қаралды 29 М.
実践Deep Learning:Autoencoderを用いた教師なし異常検知
11:59
Neural Network Console
Рет қаралды 47 М.
絶対に理解させる誤差逆伝播法【深層学習】
50:14
予備校のノリで学ぶ「大学の数学・物理」
Рет қаралды 197 М.
Deep Learning技術:押さえておくべき6つの動向(2020/08)
21:29
Neural Network Console
Рет қаралды 25 М.