1. 程式人生 > >PyTorch版LSTM遇到的問題

PyTorch版LSTM遇到的問題

解決方法:

https://discuss.pytorch.org/t/char-lstm-for-sequence-tagging/12802

https://discuss.pytorch.org/t/pack-padded-sequence-valueerror/3261/3

input data的引數input_data需要在此之前將LongTensor轉為FloatTensor,  reshape the input_var intoshape seq length X batch X 1. 並且每個batch中input data是按照length由大到小排列的。

length引用時用length.data().numpy()

input_data需要在此之前將LongTensor轉為FloatTensor, reshape the input_var into shape seqlength X batch X 。

3.pad_packed_sequence:不同batch得到的unpacked_out_xsize不同,無法進行後面的一致性的操作