Semantic 3D
這個數據級別的訓練集有一個小BUG,是這個neugasse_station1_xyz_intensity_rgb.7z, 解壓之后的名字是station1_xyz_intensity_rgb.txt,自己最好手動去修改成neugasse_station1_xyz_intensity_rgb.txt,不然跑一寫程序會存在一些問題
簡介
因為我們使用‘戶外場景’的數據做實驗,這種論文能投的期刊范圍會更廣一些。比如遙感類的期刊,就很喜歡這種場景,它不喜歡ModelNet40這種只有模型的數據庫。
We provide both training and test data as zipped ascii text files with format {x, y, z, intensity, r, g, b}. The ground truth is provided as single column ascii file, where the row ids of the class labeles and the points correspond
如何理解instensity這個通道,可以點擊這里或者這里
-
是大范圍點雲分割的benchmark
-
自然場景超過
40億
,有ground truth 和hand-labelled,加壓后總大小大概150G
-
提供了兩種數據:
- semantic-8,包含8類東西(1: man-made terrain, 2: natural terrain, 3: high vegetation, 4: low vegetation, 5: buildings, 6: hard scape, 7: scanning artefacts, 8: cars, 0: unlabeled points)。0lable 沒有ground truth也不應該沒用於訓練。訓練集和測試集各
15個
,點雲總數超過10億
, 所以作者怕你的算法受不了,所以提供了一個壓縮版本的 - reduce-8訓練集和semantic-8一樣,測試集只是semantic-8的一部分。測試集是0.01m的均勻下采樣.
- semantic-8,包含8類東西(1: man-made terrain, 2: natural terrain, 3: high vegetation, 4: low vegetation, 5: buildings, 6: hard scape, 7: scanning artefacts, 8: cars, 0: unlabeled points)。0lable 沒有ground truth也不應該沒用於訓練。訓練集和測試集各
我們的semantic3D.net數據集由使用靜態地面激光掃描儀獲取的密集點雲組成。
它包含8個語義類,涵蓋了廣泛的城市戶外場景:教堂、街道、鐵軌、廣場、村庄、足球場和城堡。
大約有40億個手工標記的點,具有良好的評估,並不斷更新子版本。這是第一個數據集,允許在真正的三維激光掃描上進行全面的深度學習,每個點都有高質量的手動標簽。訓練集和測試集各15個
我們發布的30個地面激光掃描由總計≈4 bil- lion 3D點組成,包含城市和農村場景,如農場、市政廳、運動場、城堡和市場廣場。我們精心選擇了各種不同的自然和人工場景,以防止分類器的過度擬合。所有發布的場景都是在中歐捕獲的,並描述了典型的Eu- ropean體系結構,如圖4所示。測量級激光掃描儀被用來記錄這些場景。在后處理步驟中,通過部署由攝像機圖像生成的高分辨率cubemap對圖像進行着色。一般來說,靜態激光掃描具有很高的分辨率,能夠在很小的噪聲下測量長距離。特別是與通過運動管道或類kinect結構光傳感器導出的點雲相比,激光掃描儀提供了表面數據質量。

強度值(左)、rgb顏色(中)和類標簽(右)。
在這個基准測試挑戰中,我們使用了以下8個類,包括:
1)人造地形:主要是路面;
2)自然地形:以草地為主;
3)高植被:樹木和大灌木叢;
4)低植被:小於2米的花或小灌木;
5)建築物:教堂、市政廳、車站、公寓等;
6)剩余硬景觀:一個雜亂的類,例如加登牆,噴泉,銀行等;
7)掃描偽影:靜態掃描記錄過程中,動態移動的物體引起的偽影;
小汽車和卡車。
其中一些類定義不明確,例如,一些掃描工件也可以用於汽車或卡車,很難區分大灌木叢和小灌木叢。然而,這些類在許多應用程序中是有用的。請注意,在大多數應用程序中,第7類掃描工件都是用啟發式規則集過濾的。在這個基准測試中,我們希望部署機器學習技術,因此不執行任何啟發式預處理。

format {x, y, z, intensity, r, g, b}
鏈接:https://www.jianshu.com/p/3147f5bc81f0
來源:簡書
著作權歸作者所有。商業轉載請聯系作者獲得授權,非商業轉載請注明出處。