動作識別新論文20191110:action recognition


1.Action Recognition Using Local Visual Descriptors and Inertial Data

(pdf)[https://link.springer.com/chapter/10.1007/978-3-030-34255-5_9]

使用視覺和慣性數據來做動作識別

2.(Image representation of pose-transition feature for 3D skeleton-based action recognition)[https://www.sciencedirect.com/science/article/pii/S0020025519310151]

對3D骨架數據,使用兩種方式來提取特征,一方面是:使用x,y,z每一個維度來度量各個點之間的距離信息,還有一個是使用角度來衡量點之間的關系,把這兩個特征疊加一起。
綜合的大F包括四個部分:【1.同一時間節點i和節點j之間的距離信息,2.相隔一幀,節點i和節點j之間的距離信息,3.同一時間節點i和節點j之間的角度信息,4.相隔一幀,節點i和節點j之間的角度信息】

再在時間維度上,增加一個維度,就實現特征的提取

對這些信息,轉化成對應XYZ的三個方向(“RGB”三色圖)

結果,實現83%和 90%

3.(Action recognition in freestyle wrestling using silhouette-skeleton features)[sciencedirect.com/science/article/pii/S2215098619303052]

主要是對兩人格斗信息,進行分類。
讀取圖片,使用剪影提取圖片的谷骨骼信息,骨骼映射在圖像的格子上(bin),然后統計各個bin上面的條紋數量,從而用作分類的特征。
最后使用SVM分類。

4.(Using Aesthetics and Action Recognition-based Networks for

the Prediction of Media Memorability)[]

對於讀取的TSN和I3D特征,采用其他組合的方法,再次利用起來。

這個文章有點水,基本就是使用了一下原來的模型。

5.(Temporal 3D Human Pose Estimation for Action

Recognition from Arbitrary Viewpoints)[https://www.researchgate.net/publication/336891012_Temporal_3D_Human_Pose_Estimation_for_Action_Recognition_from_Arbitrary_Viewpoints]

從圖片中提取二維骨架,然后估計3D骨架,最后使用TSN進行時間維度卷積操作。

對一些常見算法的對比


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM