1. 程式人生 > >Cityscape資料集指令碼readme翻譯

Cityscape資料集指令碼readme翻譯

The Cityscapes 資料集

該github庫包含用於檢查,準備和評估Cityscapes資料集的指令碼。 該大型資料集包含來自50個不同城市的街道場景中記錄的多種立體視訊序列,除了20000個弱註釋幀以外,還包含5000幀高質量畫素級註釋。

詳細資訊和下載連結請登入:www.cityscapes-dataset.net

資料集結構

Cityscapes dataset 的資料夾結構如下:

{root}/{type}{video}/{split}/{city}/{city}_{seq:0>6}_{frame:0>6}_{type}{ext}

其中獨立元素的含義是:

  • root Cityscapes資料集的根資料夾。 我們的許多指令碼檢查指向該資料夾的環境變數“CITYSCAPES_DATASET”是否存在,並將其作為預設目錄。
  • type 資料型別或形態,比如 gtFine 代表精細的GroundTruth, leftImg8bit 代表左側相機的八點陣圖像。
  • split 分割,即train, val, test, train_extra或demoVideo。 請注意,並非所有分組都存在所有型別的資料。 因此,偶爾找到空資料夾不要感到驚訝。
  • city 這部分資料集的所屬城市。
  • seq 序列號,使用6位數字。
  • frame 幀號,使用6位數字。 請注意,在一些城市中,雖然記錄了非常長的序列,但在一些城市記錄了許多短序列,其中僅記錄了第19幀.
  • ext 該檔案的副檔名和可選的字尾,例如, _polygons.json
    為GroundTruth檔案

type可能的值

  • gtFine 精細註釋,2975張訓練圖,500張驗證圖和1525張測試圖。 這種型別的註釋用於驗證,測試和可選的訓練。 註解使用包含單個多邊形的“json”檔案進行編碼。 另外,我們提供png影象,其中畫素值對標籤進行編碼。 有關詳細資訊,請參閱helpers / labels.pyprepare中的指令碼。
  • gtCoarse 粗略註釋,可用於所有訓練和驗證影象以及另一組19998張訓練影象(train_extra)。 這些註釋可以用於訓練,也可以與gtFine一起使用,也可以在弱監督的環境中單獨使用。
  • gtBboxCityPersons
    行人邊界框註釋,可用於所有訓練和驗證影象。 有關更多詳細資訊,請參閱helpers / labels_cityPersons.py以及CityPersons出版物(Zhang等,CVPR’17)
  • leftImg8bit 左側影象,採用8位LDR格式。這些影象都有標準的註釋.
  • leftImg16bit 左側影象,採用16位HDR格式。這些影象提供每畫素16位色彩深度幷包含更多資訊,特別是在場景的非常黑暗或明亮的部分。 警告:影象儲存為16位PNG,這是非標準的,並且不是所有庫都支援。
  • rightImg8bit 右側影象,採用8位LDR格式。
  • rightImg16bit 右側影象,採用16位HDR格式。
  • timestamp 記錄時間,單位是ns。 每個序列的第一幀總是有一個0的時間戳。
  • disparity 預先計算的視差深度圖。 為了獲得視差值,對於p> 0的每個畫素p計算:d =(float(p)-1)/ 256,而值p = 0是無效測量。 警告:影象儲存為16位PNG,這是非標準的,並且不是所有庫都支援。
  • vehicle 車輛測距,GPS座標和室外溫度。 詳情請參閱csCalibration.pdf

隨著時間的推移可能會增加更多型別,並且並非所有型別都是最初可用的,如果您需要其他元資料來執行您的方法,請告訴我們。

split可能出現的值

  • train 通常用於訓練, 包含 2975 張帶有粗糙或精細標註的影象
  • val 應該用於驗證hyper-parameters,包含500個具有精細和粗糙註釋的影象。 也可以用於訓練.
  • test 用於在我們的評估伺服器上測試。 註釋不公開,但為方便起見,我們包含自我車輛和整改邊界的註釋。
  • train_extra 可以選擇性地用於訓練,包含帶有粗略註釋的19998張影象
  • demoVideo 可用於定性評估的視訊序列,這些視訊不提供註釋

指令碼

在名為 scripts的資料夾中有資料集包含幾個指令碼

  • helpers 被其他指令碼檔案呼叫的幫助檔案
  • viewer 用於檢視影象和標註的指令碼
  • preparation 用於將GroundTruth註釋轉換為適合您的方法的格式的指令碼
  • evaluation 評價你的方法的指令碼
  • annotation 被用來標註資料集的標註工具

請注意,所有檔案頂部都有一個小型documentation。 非常重要

  • helpers/labels.py 定義所有語義類ID的中心檔案,並提供各種類屬性之間的對映。
  • helpers/labels_cityPersons.py 檔案定義所有CityPersons行人類的ID並提供各種類屬性之間的對映。
  • viewer/cityscapesViewer.py 檢視影象並覆蓋註釋。
  • preparation/createTrainIdLabelImgs.py 將多邊形格式的註釋轉換為帶有標籤ID的png影象,其中畫素編碼可以在“labels.py”中定義的“訓練ID”。
  • preparation/createTrainIdInstanceImgs.py 將多邊形格式的註釋轉換為帶有例項ID的png影象,其中畫素編碼由“train ID”組成的例項ID。
  • evaluation/evalPixelLevelSemanticLabeling.py 該指令碼來評估驗證集上的畫素級語義標籤結果。該指令碼還用於評估測試集的結果。
  • evaluation/evalInstanceLevelSemanticLabeling.py 該指令碼來評估驗證集上的例項級語義標籤結果。該指令碼還用於評估測試集的結果。
  • setup.py 執行 setup.py build_ext --inplace 啟用cython外掛以進行更快速的評估。僅針對Ubuntu進行了測試。

指令碼可以通過 pip安裝,如下:
sudo pip install .
這將指令碼安裝為名為cityscapesscripts的python模組並公開以下工具,請參閱上面的說明:

  • csViewer
  • csLabelTool
  • csEvalPixelLevelSemanticLabeling
  • csEvalInstanceLevelSemanticLabeling
  • csCreateTrainIdLabelImgs
  • csCreateTrainIdInstanceImgs

請注意,對於您需要安裝的圖形工具:
sudo apt install python-tk python-qt4

測評

一旦你想在測試集上測試你的方法,請在你提供的測試影象上執行你的方法並提交你的結果:
www.cityscapes-dataset.net/submit/
對於語義標註,我們要求結果格式與我們的名為labelIDs的標籤影象的格式相匹配。
因此,您的程式碼應該生成影象,其中每個畫素的值與labels.py中定義的類ID相對應。
請注意,我們的評估指令碼包含在指令碼資料夾中,可用於在驗證集上測試您的方法。
有關提交過程的更多詳細資訊,請諮詢我們的網站。

聯絡我們

如有任何問題,建議或意見,請隨時與我們聯絡:

相關推薦

Cityscape資料指令碼readme翻譯

The Cityscapes 資料集 該github庫包含用於檢查,準備和評估Cityscapes資料集的指令碼。 該大型資料集包含來自50個不同城市的街道場景中記錄的多種立體視訊序列,除了20000個弱註釋幀以外,還包含5000幀高質量畫素級註釋。 詳細資

製作lmdb資料的圖片均值指令碼(mean.binaryproto)

#!/usr/bin/env sh EXAMPLE=/home/hadoop/桌面/caffe_study/more_eyes DATA=/home/hadoop/桌面/caffe_study/more_eyes TOOLS=/home/hadoop/caffe/build/tools

caffe生成lmdb資料指令碼

#!/usr/bin/env sh set -e EXAMPLE=/home/hadoop/桌面/caffe_study/more_eyes DATA=/home/hadoop/桌面/caffe_study/more_eyes TOOLS=/home/hadoop/caffe/bui

資料使用】3D Mask Attack Dataset(3DMAD資料)---raw_to_AVI.py指令碼的使用

【編輯時間】2018.09.17 【資料集使用】3D Mask Attack Dataset(3DMAD資料集)---raw_to_AVI.py指令碼的使用 概述 3DMAD資料集中的資料是.hdf5格式的,可以使用資料庫中的raw_to_AVI.py指令碼將其轉換

7.開發和測試資料多大合適 翻譯自 吳恩達新書-Machine Learning Yearning

為了檢測出不同演算法之間的差異,開發資料集應該足夠大。比如,分類演算法A的準確率為90.0%, 分類演算法B的準確率為90.1%,如果開發資料集中只有100個樣本,那你無法檢測出這0.1%差在哪兒。100個樣本的開發資料集實在時太小了。通常,我們會在開發資料集

11.何時需要改變資料和衡量指標 翻譯自 吳恩達新書-Machine Learning Yearning

當開始一個新的專案時,我會快速的選擇開發和測試資料集,這樣可以給團隊定出明確的目標。 我一般會要求我的團隊在一週內,提出初始的開發/測試資料集和初始的衡量指標。一開始的想法不完美並沒關係,但是要快,千萬不能過度思考。但是這一做法不適合成熟的機器學習應用,比如反

一個用於下載IMDb人臉資料的多程序指令碼

script_for_downloading_IMDb_face A python script for downloading IMDb images (SenseTime clean datasets) with multi processings. Bef

關於TensorFlow的MNIST資料下載指令碼input_data.py的坑

今天用github上的程式碼入門tensorflow但是發現似乎要下載資料集,但是這個我弄了一會才明白是怎麼下的,所以把經驗寫在下面:(ubuntu14.04環境) 用github上的input_da

利用shell指令碼下載ImageNet資料

第一次寫部落格分享近期的一些工作 ImageNet介紹 ImageNet是目前世界上影象識別最大的資料庫,該資料庫包含了海量的影象資訊,同時這些影象基本都有標籤資訊,這避免了自己手工標記影象,給使用者節省了不少時間。 準備工作 在下載資料集前,需

深度學習與自動駕駛領域的資料(KITTI,Oxford,Cityscape,Comma.ai,BDDV,TORCS,Udacity,GTA,CARLA,Carcraft)

資料集名稱 KITTI Oxford RobotCar 論文連結 http://robotcar-dataset.robots.ox.ac.uk/images/robotcar_ijrr.pdf Over the period of Ma

[2] SSD配置+訓練VOC0712+訓練自己的資料

GitHub https://github.com/weiliu89/caffe/tree/ssd http://blog.csdn.net/u010733679/article/details/52125597 一、安裝配置 sudo apt-get install -y

[Bug]ArcGIS10.1 for Desktop為SDE柵格資料建立金字塔只能建立level1的問題

導語 前兩天去客戶那邊交流,客戶提出一個問題,我的ArcGIS10.1 for Desktop,我並沒有使用Esri提供的RasterDataset、RasterCatalog、MosaicDataset儲存模型,直接將tiff資料匯入到ArcSDE地理資料庫中,第一次匯入已經預設建立了金字塔

Spotfire使用經驗——使用文件屬性(Document Property)實現資料範圍的動態限定

需求描述: 由於業務系統將被升級,現有的Spotfire報表的資料呈現將會收到影響。因此,使用者希望能夠在Spotfire中選擇檢視不同時間範圍內的資料,即,業務系統升級前的資料和升級後的資料。 解決方法: 使用者提出的方法是,建立兩份Spotfire報表。我建議使用者最好不要這樣做

不平衡資料的處理

一、不平衡資料集的定義  所謂的不平衡資料集指的是資料集各個類別的樣本量極不均衡。以二分類問題為例,假設正類的樣本數量遠大於負類的樣本數量,通常情況下通常情況下把多數類樣本的比例接近100:1這種情況下的資料稱為不平衡資料。不平衡資料的學習即需要在分佈不均勻的資料集中學習到有用的資訊。 不平衡資

COCO資料的標註格式

COCO的 全稱是Common Objects in COntext,是微軟團隊提供的一個可以用來進行影象識別的資料集。MS COCO資料集中的影象分為訓練、驗證和測試集。COCO通過在Flickr上搜索80個物件類別和各種場景型別來收集影象,其使用了亞馬遜的Mechanical Tu

騰訊AI Lab開源業內最大規模多標籤影象資料(附下載地址)

參加 2018 AI開發者大會,請點選 ↑↑↑ 今日(10 月 18 日),騰訊AI Lab宣佈正式開源“Tencent ML-Images”專案。該專案由多標籤影象資料集 ML-Images,以及業內目前同類深度學習模型中精度最高的深度殘差網路 ResNet-101 構成。

處理coco資料-語義分割

PythonAPI/cocoSegmentationToPngDemo.py函式是用來做語義分割的,參考這裡https://blog.csdn.net/qq_33000225/article/details/78985635?utm_source=blogxgwz2 由於我用的是2017資料

【MNIST/Python】手寫體數字訓練/測試資料(圖片格式)下載及分割預處理

MNIST手寫體數字資料集 MNIST是一個手寫數字資料庫,它有60000個訓練樣本集和10000個測試樣本集 由Yann LeCun等人建立,是NIST資料庫的一個子集 官方網址連結:Link 官網上的資料庫檔案形式如下: train-images-idx3-ubyte.

KITTI資料測試 :MATLAB繪製groundtruth 真實地圖

在poses目錄下,包含00.txt-10.txt 11個序列,每一個檔案包換Nx12個表格,N代表幀數。每一行利用3x4轉移矩陣代表左邊相機系統位姿,轉移矩陣將當前幀左邊相機系統中的一個點對映到第0幀的座標系統中。轉移矩陣中平移的部分表示當前相機位置(相對於第0幀)。 Groundtrut

Oracle資料庫分批插入資料指令碼

1、指令碼如下: --分批提交指令碼 declare Type v_rowid is table of varchar2(100) index by binary_integer; --定義rowid型別 var_rowid v_rowid; --定義rowid變數 cursor