300W資料集測試MTCNN的landmark效果程式碼
300W資料集測試MTCNN的landmark效果,用提取其中afw資料集337張圖片的預測關鍵點並寫入到txt中,再用測試程式和標註landmark做對比。
處理得到的預測landmark格式如下: 1051618982(圖片名) 1(landmark個數) 543 267 643 268 594 322 542 359 643 360 111076519 2 1095 624 1161 635 1125 668 1084 696 1146 706 1172 764 1238 767 1211 806 1168 830 1233 833 1130084326程式如下:
- #include "network.h"
- #include "mtcnn.h"
- #include <time.h>
- #include <fstream>
- #include <opencv2/opencv.hpp>
- #pragma comment(lib, "libopenblas.dll.a")
- using namespace cv;
- std::vector<std::string> split(std::string& str, std::string& pattern);
- void str2int(int &int_temp, const string &string_temp);
- int main()
- {
- //因為執行目錄被設定到openblas/x64下了,保證dll能正常載入,這時候圖片路徑就相對要提上去2級
- //Mat im = imread("../../test10.jpg");
- int i = 0;
- string img_dir = "E:/face_alignment/data/300W_test_5points/afw/";
- string name, s="_";
- ifstream infile;
- ofstream outfile;
- infile.open("E:/face_alignment/data/300W_test_5points/afw_mtcnn_test_V2_2.txt"
- outfile.open("E:/face_alignment/data/300W_test_5points/MTCNN_V2_2_test/afw_test.txt");
- while (infile)
- {
- infile >> name;
- vector<string> result = split(name, s);
- cout << i << endl;
- i++;
- //cout << "name: " << result[0] << " s: " << result[1] << endl;
- string shot_name = result[0];
- int decide;
- str2int(decide, result[1]);
- if (decide == 1)
- {
- string image_name = name + ".jpg";
- outfile << shot_name << endl;
- string image_name_dir = img_dir + image_name;
- cout << image_name_dir << endl;
- Mat im = imread(image_name_dir);
- vector<vector<Point2f>> key_points;
- mtcnn find(im.cols, im.rows);
- vector<Rect> objs = find.detectObject(im, key_points);
- //outfile << objs.size() << endl;
- for (int i = 0; i < objs.size(); ++i)
- {
- rectangle(im, objs[i], Scalar(0, 255), 2);
- //outfile << objs[i].x << " " << objs[i].y << " " << objs[i].width << " " << objs[i].height << endl;
- }
- //cout << "num of key_points: " << key_points.size() << endl;
- outfile << key_points.size() << endl;
- for (int i = 0; i < key_points.size(); i++)
- {
- for (int j = 0; j < key_points[i].size(); j++)
- {
- cv::circle(im, key_points[i][j], 1, cv::Scalar(255, 255, 0), 2);
- outfile << key_points[i][j].x << " " << key_points[i][j].y << " ";
- }
- outfile << endl;
- }
- string outdir = "E:/face_alignment/data/300W_test_5points/MTCNN_V2_2_test/afw/";
- string out_image = outdir + shot_name + ".jpg";
- imwrite(out_image, im);
- //imshow("demo", im);
- //waitKey(0);
- }
- }
- infile.close();
- outfile.close();
- return0;
- }
- //字串分割函式
- std::vector<std::string> split(std::string& str, std::string& pattern)
- {
- std::string::size_type pos;
- std::vector<std::string> result;
- //str += pattern;//擴充套件字串以方便操作
- int size = str.size();
- pos = str.find(pattern, 0);
- if (pos<size) {
- std::string s1 = str.substr(0, pos);
- std::string s2 = str.substr(pos + 1, size - 1);
- result.push_back(s1);
- result.push_back(s2);
- }
- return result;
- }
- void str2int(int &int_temp, const string &string_temp)
- {
- stringstream stream(string_temp);
- stream >> int_temp;
- }
用我們自己得到的預測txt,與作者提供的標註pts檔案進行計算。 算5個landmark的歐式距離之和,除以左上角和右下角歐式距離,除以5。
- #include <iostream>
- #include <stdlib.h>
- #include <fstream>
- #include <sstream>
- #include <string>
- #include <vector>
- #include <opencv2/opencv.hpp>
- using namespace cv;
- using namespace std;
- std::vector<std::string> split(std::string& str, std::string& pattern);
- void str2int(int &int_temp, const string &string_temp);
- float computer_error(vector<float> pts_gt, vector<vector<float>> pts_pre);
- int main()
- {
- int count = 0, pos = 0;
- float acc, thread=0.1;
- string name_list, s = "_";
- string pts_dir = "E:/face_alignment/data/300W_test_5points/afw/";
- ifstream infile_list, infile_pre;
- infile_list.open("E:/face_alignment/data/300W_test_5points/afw_mtcnn_test_V1.txt");
- infile_pre.open("E:/face_alignment/data/300W_test_5points/MTCNN_V1_test/afw_test.txt");
- infile_list >> name_list;
- while (infile_pre)
- {
- string name_pre;
- int num_pre;
- vector<vector<float> > pts_pre;
- infile_pre >> name_pre;
- infile_pre >> num_pre;
- pts_pre.resize(num_pre);
- for (int i = 0; i < num_pre; i++)
- {
- pts_pre[i].resize(10);
- }
- for (int j = 0; j < num_pre; j++)
- {
- infile_pre >> pts_pre[j][0] >> pts_pre[j][1] >> pts_pre[j][2] >> pts_pre[j][3] >> pts_pre[j][4] >> pts_pre[j][5] >> pts_pre[j][6] >> pts_pre[j][7] >> pts_pre[j][8] >> pts_pre[j][9];
- }
- //for (int i = 0; i < num_pre; i++)
- //{
- // for (int j = 0; j < 10; j++)
- // {
- // cout << pts_pre[i][j] << " ";
- // }
- // cout << endl;
- //}
- // read gt file
- while (infile_list)
- {
- vector<string> result = split(name_list, s);
- string name_gt = result[0];
- if (name_gt.compare(name_pre) == 0)
- {
- count++;
- cout << count << endl;
- vector<float> pts_gt;
- pts_gt.resize(10);
- string pts_dir_name = pts_dir + name_list + ".pts";
- ifstream infile_pts;
- infile_pts.open(pts_dir_name);
- string ss;
- int yy;
- infile_pts >> ss >> yy;
- infile_pts >> ss >> yy;
- infile_pts >> ss;
- for (int i = 0; i < 5; i++)
- {
- infile_pts >> pts_gt[i*2] >> pts_gt[i*2+1];
- }
- infile_pts.close();
- float error = computer_error(pts_gt, pts_pre);
- error = error / 5.0;
- if (error <= thread)
- pos++;
- cout << error << " " << endl;
- infile_list >> name_list;
- //cout << name_list << endl;
- }
- else
- break;
- }
- }
- acc = float(pos) / float(count);
- cout << "accury: " << acc << endl;
- infile_list.close();
- infile_pre.close();
- }
- // computer alinment loss
- float computer_error(vector<float> pts_gt, vector<vector<float>> pts_pre)
- {
- if (pts_pre.size() == 0)
- return10;
- float RMSE, d_outer, align_loss;
- d_outer = sqrt((pts_gt[0] - pts_gt[8])*(pts_gt[0] - pts_gt[8]) + (pts_gt[1] - pts_gt[9])*(pts_gt[1] - pts_gt[9]));
- for (int i = 0; i < pts_pre.size(); i++)
- {
- RMSE = 0;
- for (int j = 0; j < 5; j++)
- {
- RMSE += sqrt((pts_gt[2 * j] - pts_pre[i][2 * j])*(pts_gt[2 * j] - pts_pre[i][2 * j]) + (pts_gt[2 * j + 1] - pts_pre[i][2 * j + 1])*(pts_gt[2 * j + 1] - pts_pre[i][2 * j + 1]));
- }
- RMSE = RMSE / d_outer;
- if (i == 0)
- {
- align_loss = RMSE;
- }
- else
- {
- if (align_loss > RMSE)
- align_loss = RMSE;
- }
- }
- return align_loss;
- }
- //字串分割函式
- std::vector<std::string> split(std::string& str, std::string& pattern)
- {
- std::string::size_type pos;
- std::vector<std::string> result;
- //str += pattern;//擴充套件字串以方便操作
- int size = str.size();
- pos = str.find(pattern, 0);
- if (pos<size) {
- std::string s1 = str.substr(0, pos);
- std::string s2 = str.substr(pos + 1, size - 1);
- result.push_back(s1);
- result.push_back(s2);
- }
- return result;
- }
- void str2int(int &int_temp, const string &string_temp)
- {
- stringstream stream(string_temp);
- stream >> int_temp;
- }
相關推薦
300W資料集測試MTCNN的landmark效果程式碼
300W資料集測試MTCNN的landmark效果,用提取其中afw資料集337張圖片的預測關鍵點並寫入到txt中,再用測試程式和標註landmark做對比。 處理得到的預測landmark格式如下: 1051618982(圖片名) 1(landmark個數) 543
Tensorflow mnist 資料集測試程式碼 + 自己下載資料
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data # 自己下載 MNIST_data 資料集, csdn 上下載很快 mnist_dat
KITTI資料集測試 :MATLAB繪製groundtruth 真實地圖
在poses目錄下,包含00.txt-10.txt 11個序列,每一個檔案包換Nx12個表格,N代表幀數。每一行利用3x4轉移矩陣代表左邊相機系統位姿,轉移矩陣將當前幀左邊相機系統中的一個點對映到第0幀的座標系統中。轉移矩陣中平移的部分表示當前相機位置(相對於第0幀)。 Groundtrut
NLP-Progress記錄NLP最新資料集、論文和程式碼: 助你緊跟NLP前沿
方向是自然語言處理的同學們有福啦,為了跟蹤自然語言處理(NLP)的進展,有大量仁人志士在 Github 上維護了一個名為 NLP-Progress 的庫。它記錄了幾乎所有NLP任務的 baseline 和 標準資料集,同時還記錄了這些問題的state-of-the-art。 ●&nb
Semantic Segmentation DeepLab v3 讀取資料集(TFRecord)程式碼詳解
本文主要介紹谷歌官方在Github TensorFlow中開源的官方程式碼DeepLab在讀取TFRecord格式資料集所使用的方法。 配置DeepLab v3 首先,需要將整個工程拉取到本地的workspace。 2. 將原始碼拉取到自己的workspace中。
NLP-關於資料集處理的相關程式碼
1.將幾個檔案中的資料合併為一個檔案 將要合併的幾個檔案放入一個資料夾下 import os #獲取目標資料夾的路徑 # filedir=os.getcwd()+'/corpus' #獲取當前資料夾中檔名稱列表 # filenames=os.listdir(fi
KITTI資料集測試 :groundtruth 真實地圖
在poses目錄下,包含00.txt-10.txt 11個序列,每一個檔案包換Nx12個表格,N代表幀數。每一行利用3x4轉移矩陣代表左邊相機系統位姿,轉移矩陣將當前幀左邊相機系統中的一個點對映到第0幀的座標系統中。轉移矩陣中平移的部分表示當前相機位置(相對於第
【深度學習】2個經典的練手CNN原始碼與MNIST資料集測試結果
對剛入門深度學習的童鞋,這2個簡單的工程可快速入門。建議手敲一遍,可快速熟悉程式碼和CNN的實現流程。 #1、匯入相關庫 import numpy as np import tensorflow as tf import matplotlib.pyplot as plt import inp
Tensorflow框架下Faster-RCNN實踐(一)——Faster-RCNN所需資料集製作(附程式碼)
最近剛實現了在Ubuntu16.04、Tensorfllow1.0下 Faster R-CNN 從資料製作到訓練再到利用生成的模型檢測的測試圖片的全過程,現在將具體的過程記錄在部落格,方便遇到困惑或者需要的朋友檢視。 製作資料集 利用Fast
深度學習之路:(一)Keras中mnist資料集測試
Keras環境搭建 本地環境 MacOS 一、安裝Anaconda 1、下載Anaconda最新版本:官網下載地址 附:清華映象源 2、下載後直接安裝,點選next 3、檢測版本 開啟終端 輸入conda -
ubuntu下caffe實戰---mnist資料集測試
測試用到手寫體識別模型LeNet,mnist資料集 其中LeNet是一種CNN模型,由一個卷積層、後面跟一個下采樣層、再跟另外一個卷積層和另一個下采樣層,再之後是兩個全連線層組成。 mnist資料集:包括60000個訓練集和10000個驗證集 訓練過程: 1.下載mni
KITTI資料集測試
KITTI資料集是目前為止為數不多的機器人定位,製圖,導航演算法測試的資料集,使用成熟的資料集有利於和同行同類演算法進行比較,也不用花大量時間去採集自己的資料集。 本文主要目的就自己在使用KITTI資料集過程中遇到的問題進行總結,並從實際的角度出發讓我們如何儘
mxnet卷積神經網路訓練MNIST資料集測試
import numpy as np import mxnet as mx import logging logging.getLogger().setLevel(logging.DEBUG) batch_size = 100 mnist = mx.test_utils
Caffe初體驗之Caffe-Windows的配置(CPU/GPU)與Mnist資料集測試
配置編譯caffe-windows安裝CUDA(適用GPU版本) 去英偉達下載CUDA7.5,windows10,x86_64,本地安裝,如下圖:下載安裝CUDNN(V4 for cuda7.0或者V5 for cuda7.5)(適用GPU版本) 這個過程的話新使
Tensorflow基礎:使用驗證資料集判斷模型效果
在上一篇部落格中,給出了使用神經網路解決MNIST問題的完整程式。在這個程式的開始設定了初始學習率、學習率衰減率、隱藏層節點數量、迭代輪數等7種不同的引數。 在大部分情況下,配置神經網路的這些引數都是需要通過實驗來調整的。使用測試資料來選取引數可能會導致神經網
TextCNN 程式碼詳解(附測試資料集以及GitHub 地址)
前言:本篇是TextCNN系列的第三篇,分享TextCNN的優化經驗 前兩篇可見: 文字分類演算法TextCNN原理詳解(一) 一、textCNN 整體框架 1. 模型架構 圖一:textCNN 模型結構示意 2. 程式碼架構 圖二: 程式碼架構說明 text_cnn.py 定義
【MNIST/Python】手寫體數字訓練/測試資料集(圖片格式)下載及分割預處理
MNIST手寫體數字資料集 MNIST是一個手寫數字資料庫,它有60000個訓練樣本集和10000個測試樣本集 由Yann LeCun等人建立,是NIST資料庫的一個子集 官方網址連結:Link 官網上的資料庫檔案形式如下: train-images-idx3-ubyte.
Python機器學習實踐指南 pdf 下載(中文版帶書籤)、原書程式碼、資料集
機器學習正在迅速成為資料驅動型世界的一個bi備模組。許多不同的領域,如機器人、醫學、零售和出版等,都需要依賴這門技術。通過閱讀 Python機器學習實踐指南 ,你將學習如何一步步構建真實的機器學習應用程式。 Python機器學習實踐指南 以通俗易懂,簡潔明瞭的方式,教你如何使用機器
VOC資料集顏色對應關係與程式碼
VOC顏色和分類的對於關係: code: def voc_colormap(N=256): def bitget(val, idx): return ((val & (1 << idx)) != 0)
R_Studio(cart演算法決策樹)對book3.csv資料用測試集進行測試並評估模型
對book3.csv資料集,實現如下功能: (1)建立訓練集、測試集 (2)用rpart包建立關於類別的cart演算法的決策樹 (3)用測試集進行測試,並評估模型 book3.csv資料集 se