12:36秒说到decoder的每一个output都会被记录下来,最后return一整句翻译。请问是用一个单独的variable来存储么?还是存在cell state c里面?谢谢
@ShusenWang4 жыл бұрын
直接打印出来就行了,这就是翻译的结果
@DED_Search4 жыл бұрын
@@ShusenWang 谢谢
@DED_Search4 жыл бұрын
王老师,这节课我有个问题。 lstm encoder跟decoder的工作原理是一样的么?都类似text generator么?encoder的目的是什么呢?我想知道encoder每个block的input x, hidden state h, output, and cell state c都大概长什么样子。 13:10秒说每输入一个词rnn就会更新状态,把输入的信息积累在更新的hidden state里。我有些迷惑,假设英文句子是"i am chinese", 那么每个block的输入x依次是:i; am; chinese. 每个block的hidden state依次是:i; i_am;I_am_chinese?? 这么理解对么?如果是这样,那cell state长什么样子呢?那么这跟直接用英文这句话的one hot encoding得出的matrix做decoder state初始值,有什么区别呢?这跟上节课的text generator不太一样,我有点没办法wrap my head around it. 谢谢
@ShusenWang4 жыл бұрын
Encoder 不是generator。Encode只是从输入的句子中提取特种。Encoder的输出 h 、c 相当于特征向量。
@DED_Search4 жыл бұрын
@@ShusenWang 那么这跟直接用英文这句话的one hot encoding得出的matrix做decoder state初始值,有什么区别呢? 不好意思 初学者问题有点多。感谢老师的解答。