Author
一作: Asako Kanezaki 是個漂亮的小姐姐, AIST 日本東京的研究所
Abstract
提出了RotationNet,用multi-view圖片作為輸入,同時估計物體的姿態和類別
它是用部分的multi-view圖片做inference,這個性質使得它很實用,因為很多場景都只有部分的view
同時,論文提出的pose alignment的方法可以獲得不同類別共享的的view-specific feature representations
RotationNet在ModelNet datasets 10- 40-class中都獲得了SOTA
同時在object pose estimation中也獲得了SOTA, 即使它在沒有已知pose標簽的數據集上訓練
Introduction
However, in real-world scenarios, objects can often only be observed from limited viewpoints due to occlusions,which makes it difficult to rely on multi-view representations that are earned with the whole circumference(本文主要解決的問題: 當沒有全圍表示時,怎么用有限的view point images來學習特征)
object classification 和 viewpoint estimation時一個緊密相關的問題對,所以可以進行互補
不是很看的懂,挖坑待填(等CVPR accepted list出來,看大神解讀)