1. Tum數據集這個大家用的人都知道,RGB-D數據集,有很多個sequence,自帶Ground-truth軌跡與測量誤差的腳本(python寫的,還有一些有用的函數)。有一些很簡單(xyz, 360系列),但也有的很難(各個slam場景)。由于它的目標場景是機器人救援(雖然看不太出來),場景都比較空曠,許多時候kinect的深度只夠看一個地板。對視覺算法可靠性的要求還是蠻高的。網址: http://vision.in.tum.de/data/datasets/rgbd-dataset2. MRPT壇友SLAM_xian已經給出了地址:見此貼含有多種傳感器數據,包括雙目,laser等等。MRPT本身是個機器人用的開發包(然而我還是沒用過),有興趣的同學可以嘗試。3. Kitti壇友zhengshunkai給出了地址:見此貼著名的室外數據集,雙目,有真值。場景很大,數據量也很大(所以在我這種流量限制的地方用不起……)。如果你做室外的請務必嘗試一下此數據集。就算你不用審稿人也會讓你用的。4. Oxford數據集含有一些Fabmap相關的數據集,用來驗證閉環檢測的算法。室外場景。它提供了ground-truth閉環(據說是手工標的,真是有耐心啊)。網址:http://www.robots.ox.ac.uk/~mobile/wikisite/pmwiki/pmwiki.php?n=Main.Datasets#userconsent#5. ICL-NUIM數據集(又)是帝國理工弄出來的,RGB-D數據集,室內向。提供ground-truth和odometry。網址:http://www.doc.ic.ac.uk/%7Eahanda/VaFRIC/iclnuim.html6. NYUV2 數據集一個帶有語義標簽的RGB-D數據集,原本是用來做識別的,也可以用來做SLAM。特點是有一個訓練集(1400+手工標記的圖像,好像是雇人弄的),以前一大堆video sequence。網址:http://cs.nyu.edu/silberman/datasets/nyu_depth_v2.html (似乎訪問有問題,不知道會不會修復)7. KOS的3d scan數據集一個激光掃描的數據集。網址:http://kos.informatik.uni-osnabrueck.de/3Dscans/由于個人精力(和流量)有限,不可能挨個去測一遍。請使用過的同學們說說用后感想,沒列到的也歡迎補充。
新聞熱點
疑難解答