1. 程式人生 > >coco資料集的處理

coco資料集的處理

ssd中readme.md提供了對Coco的處理

ssd/caffe/data/coco/

### Preparation

1. Download Images and Annotations from [MSCOCO](http://mscoco.org/dataset/#download). By default, we assume the data is stored in `$HOME/data/coco`


2. Get the coco code. We will call the directory that you cloned coco into `$COCO_ROOT`
  ```Shell
  git clone https://github.com/weiliu89/coco.git
  cd coco
  git checkout dev
  ```


3. Build the coco code.
  ```Shell
  cd PythonAPI
  python setup.py build_ext --inplace
  ```


4. Split the annotation to many files per image and get the image size info.
  ```Shell
  # Check scripts/batch_split_annotation.py and change settings accordingly.
  python scripts/batch_split_annotation.py
  # Create the minival2014_name_size.txt and test-dev2015_name_size.txt in $CAFFE_ROOT/data/coco
  python scripts/batch_get_image_size.py
  ```


5. Create the LMDB file.
  ```Shell
  cd $CAFFE_ROOT
  # Create the minival.txt, testdev.txt, test.txt, train.txt in data/coco/
  python data/coco/create_list.py
  # You can modify the parameters in create_data.sh if needed.
  # It will create lmdb files for minival, testdev, test, and train with encoded original image:
  #   - $HOME/data/coco/lmdb/coco_minival_lmdb
  #   - $HOME/data/coco/lmdb/coco_testdev_lmdb
  #   - $HOME/data/coco/lmdb/coco_test_lmdb
  #   - $HOME/data/coco/lmdb/coco_train_lmdb
  # and make soft links at examples/coco/
  ./data/coco/create_data.sh

  ```

此外,https://github.com/rbgirshick/py-faster-rcnn/blob/master/data/README.md裡也有詳細的處理方法。

相關推薦

處理coco資料-語義分割

PythonAPI/cocoSegmentationToPngDemo.py函式是用來做語義分割的,參考這裡https://blog.csdn.net/qq_33000225/article/details/78985635?utm_source=blogxgwz2 由於我用的是2017資料

coco資料處理

ssd中readme.md提供了對Coco的處理ssd/caffe/data/coco/### Preparation1. Download Images and Annotations from [MSCOCO](http://mscoco.org/dataset/#dow

COCO資料的標註格式

COCO的 全稱是Common Objects in COntext,是微軟團隊提供的一個可以用來進行影象識別的資料集。MS COCO資料集中的影象分為訓練、驗證和測試集。COCO通過在Flickr上搜索80個物件類別和各種場景型別來收集影象,其使用了亞馬遜的Mechanical Tu

COCO資料格式互換

poly->compacted RLE:     seg=np.array([312.29, 562.89, 402.25, 511.49, 400.96, 425.38, 398.39, 372.69, 388.11, 332.85, 318.71, 325.14, 295

影象識別資料處理——python 檔案操作

通過 excel 獲取資料集 資料集放在一個總資料夾中,excel中對影象標識做了記錄,我們需要通過讀取excel中的影象檔名來獲取相應的影象。 例項檔案結構如下: 源目錄 ├── 二級目錄1 │ ├──example_01.jpg │ └──example_02.

==3==基於tensorflow目標識別API執行已有的模型(執行demo coco資料)

首先裝環境 參考連結 一 執行已經訓練好的模型 執行demo 1進入模型資料夾下的research資料夾中 進入research資料夾下!如果按照上面參考部落格進行,那麼路徑可以由下面步驟查詢: 首先確認tensorflow的路徑 python3 import tensorf

資料處理--資料處理

選擇訓練集/開發集/測試集大小   之前,我只知道較普遍的 60/20/20 分隔。   但對於一個非常大的資料集,應該使用 98/1/1 甚至 99/0.5/0.5 的分隔。這是因為開發集合測試集只要足夠大能保證模型處於團隊設定的置信區間即可。如果你使用 1 千萬個訓練樣本,那麼 10

Ubuntu 16.04系統Microsoft Common Objects in Context(COCO)資料在Python環境中的使用

Microsoft Common Objects in Context(簡寫COCO)資料集是微軟團隊提供的一個可以用來進行影象識別,分割,註解等開發工作的資料集。 該資料集主要有的特點如下:(1)Object segmentation(2)Recognition

NLP-關於資料處理的相關程式碼

1.將幾個檔案中的資料合併為一個檔案 將要合併的幾個檔案放入一個資料夾下 import os #獲取目標資料夾的路徑 # filedir=os.getcwd()+'/corpus' #獲取當前資料夾中檔名稱列表 # filenames=os.listdir(fi

不平衡資料處理方法

1、不平衡(均衡)資料集 (1)不平衡資料集定義 不平衡資料集指的是資料集各個類別的樣本數目相差巨大。以二分類問題為例,假設正類的樣本數量遠大於負類的樣本數量,這種情況下的資料稱為不平衡資料。 (2)不平衡資料集舉例 ① 在二分類問題中,訓練集中class 1的樣本數

如何使用COCO資料api評估特定類別的AP

使用coco資料集訓練目標檢測網路的時候,有時候需要檢視模型在具體幾個類別的檢測效果,例如human detector網路。但中文文件裡對COCO如何評估網路在某一類別下的檢測效果描述的很少,這給很多剛入門的研究人員造成了困擾。所以,在這裡我簡單介紹一下如何使用

pytorch載入pascal&&coco資料

上一篇部落格https://blog.csdn.net/goodxin_ie/article/details/84315458我們詳細介紹了pascal&&coco資料集,本篇我們將介紹pytorch如何載入 一、目標 pascal資料集的資料來源是jpg圖片,便籤是xml檔

Pascal VOC & COCO資料介紹

  Pascal VOC資料集介紹 Annotations ImageSets JPEGImages SegmentationClass SegmentationObject 1. JPEGImages 主要提供的

COCO資料做語義分割

要使用COCO資料分割資料集,先要配置API,參見我的上一篇部落格 我對COCO資料集的一些理解: 圖片都是一樣的,annotations不一樣(就是包含註釋資訊的json檔案),有captions,instances,person_keypoints,stuff四大類,每一類都分別

使用coco資料,faster rcnn類方法訓練出錯解決

問題:在caffe框架下,使用coco資料集進行faster rcnn類方法訓練,得到如下錯誤:  File "/data/zn/light_head_rcnn/script/py-RFCN-priv/tools/../lib/rpn/anchor_target_layer.

MS COCO資料介紹

本文直接從實用型角度介紹下coco資料集。 以coco2014為例,下載資源以後,得到以下目錄: annotations中存放的是一大堆json檔案: (注,帶person和face的是我自己製作的json檔案,截圖時懶得刪除,可以忽略,想了解如何製作的,請看我

Faster-R-CNN(Python).2:COCO資料annotation內容

[{"supercategory": "person", "id": 1, "name": "person"}, {"supercategory": "vehicle", "id": 2, "name": "bicycle"}, {"superca

COCO資料的一點點理解

有的目標檢測演算法只做兩點內容:一是,定位目標的位置,用方框標出,這種對目標的定位只通過兩個座標,(xmin,ymin)和(xmax,ymax);二是給出方框中目標的類別。用COCO資料集做目標檢測演算法的測試時,需要做的任務遠不止這麼簡單,該資料集的標註資訊包含一下三個內容

COCO資料擴充套件的幾個關鍵點

http://mscoco.org/資料集,我們需要擴充套件現有category型別,分割標註過程過耗時耗力,而且對於最終生成的json檔案的物件“segmentation”,我們首先需要區分我們使用的是COCO“things”還是COCO“stuff”。 1) COCO

MS COCO資料目標檢測評估(Detection Evaluation)(來自官網)

 目標檢測評估 1. Detection Evaluation 本頁介紹了COCO使用的檢測評估指標。此處提供的評估程式碼可用於在公開可用的COCO驗證集上獲得結果。它計算下面描述的多個指標。為了在COCO測試集上獲得結果,其中隱藏了實際真值註釋,必須將生成的結果上傳到評