coco :(MS) COMMON Objects in context
(牛逼的數據集 都有相應的論文的 如coco
iamgenet:分類數據集
coco:目標檢測,關鍵點檢測,
研究某個問題,首先花一定的時間探索一下baseline數據集以及關於此數據集的論文。)
認為場景理解的一個核心是 獲得 目標在空間上的精確位置:
這個位置可以通過兩種方式定義:
1. 直接bbox框出來--對物體做目標級的定位------coarsely
2. 實力分割---對物體做 像素級的定位----(其實實例分割就是更加precisely的目標檢測)
提出coco數據集,並利用DPM第一次做了實例分割任務,希望能更精確的衡量檢測器;在person 類別上的檢測map僅有15.4
思路:
使用ijson讀取json文件遍歷
annotation和images唯一的聯系就是image-id
1.首先遍歷annotation對象,將含person的id的annotation保存到新的對象中;同時保存image_id到一個列表image_list中。
2.對image_list列表去重,然后用這個列表去讀取images對象,ID匹配到的保存到新的images數組。
coco中:
- 目標檢測針對:動態目標 things(前景物)
- stuff task: 針對 草,牆,天空 這種靜態目標。(背景物)
- detection 標注針對前景,stuff標注針對背景,panopatic針對全景。
- keypoints標注:是全部圖片中person類的mask標注了關節點。
檢測(包括關鍵點檢測)和分割就是coco數據集
視頻動作:找個數據集
多目標跟蹤:找個數據集
分類:找個數據集
object detection:
1.common object detection
2.precisly object detection(instance segmentation)
因此,在coco數據集中,做檢測和分割只需要下載 instance train/val ---2017之后會新增任務但是原類別的標注是不變的,比如instances標注
關鍵點檢測,需要下載person_keypoints train/val(注釋中包含了instance 數據集中的部分注釋)
coco2017:
train/val:118K:5k
test:dev/challenge
還發布了120K張無標簽的img,方便半監督學習使用。
Please note that:請注意 coco api可以獲取並處理annotations
{ }:一個json對象,即一個字典數據結構
[{obj1},{obj2}]:多個字典對象放到列表里,就成了json數組(json對象列表)。
json是指文件類型,json文件類型采用字典數據結構組織數據。
json文件內部就是一個大的dict()
Dadroit軟件:
打開json文件時,每個[0][1]...的地方都是一個json數組(即列表)