【強化学習】n-step TD 法 - 一番使われる基礎的手法だよ【強化学習の基礎アルゴリズム】RL vol. 17

  Рет қаралды 3,304

AIcia Solid Project

AIcia Solid Project

Күн бұрын

Пікірлер: 7
@poco_cpp
@poco_cpp 5 ай бұрын
n-stepが不安定になる理由ですが、メインの理由は分散ではなく分布シフトが原因ですね。 なので分布シフトが発生しないオンポリシーな手法(SARSA等)だとnを大きくしても安定して学習できます。 逆にオフポリシーが含まれる手法の場合は分布シフトが発生するのでnを少しでも大きくするとすぐ不安定になったりします。 (retrace関係の論文に詳しく書かれています)
@poco_cpp
@poco_cpp 5 ай бұрын
これは私の勝手な想像ですが、以下のような歴史がある気がします。 ・古典強化学習ではn-stepの不安定さが分散だと思われていた ・深層強化学習が発達(ここで古典強化学習から10年以上は時代が進んでいる) ・オフライン強化学習という分野が出てきて学習の不安定さが本格的に研究されだした  →分布シフトについても研究が進む ・n-stepの不安定さが分布シフトに基づくものだとして解決策が編みだされた なのでかなり最近出てきた考え方だと思っています。
@AIcia_Solid
@AIcia_Solid 5 ай бұрын
なるほど!そうなんですね! ありがとうございます!!!!! 最近の研究は全然知りませんでした、、🙇‍♀️ たしかに、SARSA は安定するけど Q はシフトがあって不安定というのは、とても良く分かります。 なんの Q を推定してるのか、よくわからないですものね、、、。 ありがとうございます! 後々のシリーズで補足入れようと思います。 私もとても勉強になりました。 ありがとうございました!!!!!
@miniyosshi
@miniyosshi 5 ай бұрын
このシリーズ溜めててやっとここまでたどり着きました。QとSARSAの良しあしはサンプル効率など説明があったと思いますが、Vを使うTDとQを使うQやSARSAの良しあし(あるいは使い分け)みたいな部分はどうなんでしょうか~?
@AIcia_Solid
@AIcia_Solid 5 ай бұрын
ご視聴コメントありがとうございます! 例外はありますが、基本的には Q か使われる印象です。 ただ、将棋 AI や囲碁 AI など、行動の後の状態が確定している場合は、Q ではなく V が使われています。 そのような違いと認識していますが、実践経験はほぼないので、現場では違う使い分けもあるかもしれません。 実際にやるときは分野の慣習を参考にすると良いと思います!
To Brawl AND BEYOND!
00:51
Brawl Stars
Рет қаралды 17 МЛН
渡辺明名人の【作戦術】
37:04
戸辺チャンネル
Рет қаралды 649 М.
Visualizing transformers and attention | Talk for TNG Big Tech Day '24
57:45
Deep Learning入門:ニューラルネットワーク設計の基礎
18:38
Neural Network Console
Рет қаралды 175 М.
渡辺明名人の将棋講座【現代トップ棋士の研究とは】
30:12
戸辺チャンネル
Рет қаралды 803 М.
Attention in transformers, step-by-step | DL6
26:10
3Blue1Brown
Рет қаралды 2,1 МЛН