任務
action recognition
對骨架節點坐標進行視角不變預處理
We align the action sequences by implementing a view-invariant transformation which transforms keypoints coordinates from original coordinate system into a view-invariant coordinate
system。

基本流程
先訓練出一個encoder-decoder,這個encoder是雙向GRU,decoder是單向GRU。把encoder得到的特征叫做high dimensional feature。如下圖:
再把high-dimensional feature送進另一個encoder-decoder,這里的encoder和decoder都是全連接層,激活函數是tanh,如下圖所示。把這個encoder得到的特征叫做low dimensional feature。用這個low dimensional feature做KNN聚類。
數據集
North-Western UCLA (NW-UCLA) dataset
UWA3D Multiview Activity II (UWA3D) dataset
NTU RGB+D dataset