Chain TDNN/LSTM的拼幀索引、延時


TDNN模型示例

TDNN拼幀:

8層:(0,3)

7層:(-9,0)

6層:(0,3)

5層:(-6,0)

4層:(0,3)

3層:(-3,0)

2層:(0,3)

1層:(-3,0)

   

輸出依賴

要在輸出層處輸出第1幀,各層需要的幀的時間索引如下:

8層:1,4

7層:-9,-6,1,4

6層:-9,-6,1,4,7

5層:-15,-12,-9,-6,-3,1,4,7

4層:-15,-12,-9,-6,-3,1,4,7,10

3層:-18,-15,-12,-9,-6,-3,1,4,7,10

2層:-18,-15,-12,-9,-6,-3,1,4,7,10,13

1層:-21,-18,-15,-12,-9,-6,-3,1,4,7,10,13

   

   

要在輸出層處輸出第2幀,各層需要的幀的時間索引如下:

9層:2,5

...

2層:-20,-17,-14,-11,-8,-5,-2,2,5,8,11,14

   

要在輸出層處輸出第3幀,各層需要的幀的時間索引如下:

9層:3,6

...

2層:-19,-16,-13,-10,-7,-4,-1,3,6,9,11,15

要在輸出層處輸出第4幀,各層需要的幀的時間索引如下:

9層:4,7

...

2層:-18,-15,-12,-9,-6,-3,1,4,7,10,13,16

   

TDNN的拼幀索引

   

第一層不需要受到此限制

9層:(0,3)

8層:(-9,0)

7層:(0,3)

6層:(-6,0)

5層:(0,3)

4層:(-3,0)

3層:(0,3)

2層:(-3,0)

1層:(-2,-1,0,1,2)

   

LSTM的延時

TDNN類似,單向LSTM依賴於歷史信息,雙向LSTMBLSTM)依賴於歷史信息與未來信息

信息包括 記憶(Cell)與輸出(Recurrent

   

默認情況下,對於長度為T幀的語句,在t時刻:

LSTM依賴於

t時刻上一層的輸出

BLSTM依賴於

t時刻上一層的輸出

那么,在t-1時刻:

LSTM依賴於

t-1時刻上一層的輸出

BLSTM依賴於

t-1時刻上一層的輸出

依此類推:

LSTM將依賴於所有的歷史信息

BLSTM將依賴於所有的信息(歷史信息+未來信息)

也就是說,所有幀(T幀)都需要進行LSTM計算


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM