なるほど! r と z はたしかに役割がにていて、共に以前の h を次の h にどの程度渡すのかを制御しています。 r は、入力 x と h を混ぜる割合を制御し、 z は前の h と、今作った\tilde{h} を混ぜる割合を制御しており、 似て非なる役割をしています。 これか違いです。 何故あるかといえば、恐らくですが、ある ver、ない ver、他の形状(数式)などなど様々に実験をしたなかで、これがベストだったという、実験的な帰着ではないかと思います。 Deep Learning の世界では、何かの論理的な帰結で構造が決まる場合があれば、実験の結果で良いものが生き残ることもあります。 これが理由です。 いかがでしょうか?
@a.95164 жыл бұрын
研究室に一人で「あぁ!そっか!」とか言っちゃいました…
@AIcia_Solid4 жыл бұрын
不審者ですね😎✌️
@yosukeshiraishi17813 жыл бұрын
細かい事なんですけどGRUの模式図の一番上の線は(1-z)⚪︎h(t-1)ではないでしょうか?
@AIcia_Solid3 жыл бұрын
その通りです! 図では、ごちゃごちゃするのを避けるため、 t-1 や t を全て略しています。 正確に書けばそうなると思います!