YOLO原始碼(Darknet原始碼)解讀(yolo.c)
// 將檢測的boxes結果寫入檔案 void print_yolo_detections(FILE **fps, char *id, int total, int classes, int w, int h, detection *dets) { int i, j; for(i = 0; i < total; ++i){ float xmin = dets[i].bbox.x - dets[i].bbox.w/2.; float xmax = dets[i].bbox.x + dets[i].bbox.w/2.; float ymin = dets[i].bbox.y - dets[i].bbox.h/2.; float ymax = dets[i].bbox.y + dets[i].bbox.h/2.; if (xmin < 0) xmin = 0; if (ymin < 0) ymin = 0; if (xmax > w) xmax = w; if (ymax > h) ymax = h; for(j = 0; j < classes; ++j){ if (dets[i].prob[j]) fprintf(fps[j], "%s %f %f %f %f %f\n", id, dets[i].prob[j], xmin, ymin, xmax, ymax); } } }
// 在驗證集上檢測物體 void validate_yolo(char *cfg, char *weights) { network *net = load_network(cfg, weights, 0); set_batch_network(net, 1); fprintf(stderr, "Learning Rate: %g, Momentum: %g, Decay: %g\n", net->learning_rate, net->momentum, net->decay); srand(time(0)); char *base = "results/comp4_det_test_"; //list *plist = get_paths("data/voc.2007.test"); list *plist = get_paths("/home/pjreddie/data/voc/2007_test.txt"); //list *plist = get_paths("data/voc.2012.test"); char **paths = (char **)list_to_array(plist); layer l = net->layers[net->n-1]; int classes = l.classes; // 一個label建立一個檔案,儲存檢測結果 int j; FILE **fps = calloc(classes, sizeof(FILE *)); for(j = 0; j < classes; ++j){ char buff[1024]; snprintf(buff, 1024, "%s%s.txt", base, voc_names[j]); fps[j] = fopen(buff, "w"); } int m = plist->size; int i=0; int t; float thresh = .001; int nms = 1; float iou_thresh = .5; int nthreads = 8; image *val = calloc(nthreads, sizeof(image)); image *val_resized = calloc(nthreads, sizeof(image)); image *buf = calloc(nthreads, sizeof(image)); image *buf_resized = calloc(nthreads, sizeof(image)); pthread_t *thr = calloc(nthreads, sizeof(pthread_t)); load_args args = {0}; args.w = net->w; args.h = net->h; args.type = IMAGE_DATA; // 建立執行緒,讀取影象,對應影象id [0, nthreads - 1] for(t = 0; t < nthreads; ++t){ args.path = paths[i+t]; args.im = &buf[t]; args.resized = &buf_resized[t]; thr[t] = load_data_in_thread(args); } time_t start = time(0); for(i = nthreads; i < m+nthreads; i += nthreads){ fprintf(stderr, "%d\n", i); // 等待執行緒結束,對應影象id [i - nthreads, i - 1] for(t = 0; t < nthreads && i+t-nthreads < m; ++t){ pthread_join(thr[t], 0); val[t] = buf[t]; val_resized[t] = buf_resized[t]; } // 建立執行緒,讀取影象,對應影象id [i, min(m - 1, i + nthread - 1)] for(t = 0; t < nthreads && i+t < m; ++t){ args.path = paths[i+t]; args.im = &buf[t]; args.resized = &buf_resized[t]; thr[t] = load_data_in_thread(args); } // 檢測影象中的物體,對應影象id [i - nthreads, i - 1] for(t = 0; t < nthreads && i+t-nthreads < m; ++t){ // 獲取影象檔名 char *path = paths[i+t-nthreads]; char *id = basecfg(path); // 檢測 float *X = val_resized[t].data; network_predict(net, X); // 獲取bboxes int w = val[t].w; int h = val[t].h; int nboxes = 0; detection *dets = get_network_boxes(net, w, h, thresh, 0, 0, 0, &nboxes); // nms if (nms) do_nms_sort(dets, l.side*l.side*l.n, classes, iou_thresh); // print print_yolo_detections(fps, id, l.side*l.side*l.n, classes, w, h, dets); free_detections(dets, nboxes); free(id); free_image(val[t]); free_image(val_resized[t]); } } fprintf(stderr, "Total Detection Time: %f Seconds\n", (double)(time(0) - start)); }
// 在驗證集上計算 bbox objectness 的 recall void validate_yolo_recall(char *cfg, char *weights) { network *net = load_network(cfg, weights, 0); set_batch_network(net, 1); fprintf(stderr, "Learning Rate: %g, Momentum: %g, Decay: %g\n", net->learning_rate, net->momentum, net->decay); srand(time(0)); char *base = "results/comp4_det_test_"; list *plist = get_paths("data/voc.2007.test"); char **paths = (char **)list_to_array(plist); layer l = net->layers[net->n-1]; int classes = l.classes; int side = l.side; int j, k; FILE **fps = calloc(classes, sizeof(FILE *)); for(j = 0; j < classes; ++j){ char buff[1024]; snprintf(buff, 1024, "%s%s.txt", base, voc_names[j]); fps[j] = fopen(buff, "w"); } int m = plist->size; int i=0; float thresh = .001; float iou_thresh = .5; float nms = 0; int total = 0; int correct = 0; int proposals = 0; float avg_iou = 0; for(i = 0; i < m; ++i){ char *path = paths[i]; image orig = load_image_color(path, 0, 0); image sized = resize_image(orig, net->w, net->h); char *id = basecfg(path); network_predict(net, sized.data); int nboxes = 0; detection *dets = get_network_boxes(net, orig.w, orig.h, thresh, 0, 0, 1, &nboxes); if (nms) do_nms_obj(dets, side*side*l.n, 1, nms); // 根據 image path 和替換規則,構建 label path char labelpath[4096]; find_replace(path, "images", "labels", labelpath); find_replace(labelpath, "JPEGImages", "labels", labelpath); find_replace(labelpath, ".jpg", ".txt", labelpath); find_replace(labelpath, ".JPEG", ".txt", labelpath); // 讀取 ground truth int num_labels = 0; box_label *truth = read_boxes(labelpath, &num_labels); // 統計 proposal 個數 for(k = 0; k < side*side*l.n; ++k){ if(dets[k].objectness > thresh){ ++proposals; } } // 給每一個 ground truth 匹配 iou 最大的 bbox for (j = 0; j < num_labels; ++j) { ++total; box t = {truth[j].x, truth[j].y, truth[j].w, truth[j].h}; float best_iou = 0; for(k = 0; k < side*side*l.n; ++k){ float iou = box_iou(dets[k].bbox, t); if(dets[k].objectness > thresh && iou > best_iou){ best_iou = iou; } } if(best_iou > iou_thresh){ ++correct; } avg_iou += best_iou; } fprintf(stderr, "%5d %5d %5d\tRPs/Img: %.2f\tIOU: %.2f%%\tRecall:%.2f%%\n", i, correct, total, (float)proposals/(i+1), avg_iou*100/total, 100.*correct/total); free_detections(dets, nboxes); free(id); free_image(orig); free_image(sized); } }
// 檢測一張影象或多多張影象
void test_yolo(char *cfgfile, char *weightfile, char *filename, float thresh)
{
image **alphabet = load_alphabet();
network *net = load_network(cfgfile, weightfile, 0);
layer l = net->layers[net->n-1];
set_batch_network(net, 1);
srand(2222222);
clock_t time;
char buff[256];
char *input = buff;
float nms=.4;
while(1){
// 獲取影象路徑
if(filename){
strncpy(input, filename, 256);;
} else {
printf("Enter Image Path: ");
fflush(stdout);
input = fgets(input, 256, stdin);
if(!input) return;
strtok(input, "\n");
}
image im = load_image_color(input,0,0);
image sized = resize_image(im, net->w, net->h);
float *X = sized.data;
time=clock();
network_predict(net, X);
printf("%s: Predicted in %f seconds.\n", input, sec(clock()-time));
int nboxes = 0;
detection *dets = get_network_boxes(net, 1, 1, thresh, 0, 0, 0, &nboxes);
if (nms) do_nms_sort(dets, l.side*l.side*l.n, l.classes, nms);
// 在影象上畫出 bboxes,顯示出來,並儲存
draw_detections(im, dets, l.side*l.side*l.n, thresh, voc_names, alphabet, 20);
save_image(im, "predictions");
show_image(im, "predictions");
free_detections(dets, nboxes);
free_image(im);
free_image(sized);
#ifdef OPENCV
cvWaitKey(0);
cvDestroyAllWindows();
#endif
if (filename) break;
}
}
// YOLO入口,根據入參區分 train/valid/test
void run_yolo(int argc, char **argv)
{
char *prefix = find_char_arg(argc, argv, "-prefix", 0);
float thresh = find_float_arg(argc, argv, "-thresh", .2);
int cam_index = find_int_arg(argc, argv, "-c", 0);
int frame_skip = find_int_arg(argc, argv, "-s", 0);
if(argc < 4){
fprintf(stderr, "usage: %s %s [train/test/valid] [cfg] [weights (optional)]\n", argv[0], argv[1]);
return;
}
int avg = find_int_arg(argc, argv, "-avg", 1);
char *cfg = argv[3];
char *weights = (argc > 4) ? argv[4] : 0;
char *filename = (argc > 5) ? argv[5]: 0;
if(0==strcmp(argv[2], "test")) test_yolo(cfg, weights, filename, thresh);
else if(0==strcmp(argv[2], "train")) train_yolo(cfg, weights);
else if(0==strcmp(argv[2], "valid")) validate_yolo(cfg, weights);
else if(0==strcmp(argv[2], "recall")) validate_yolo_recall(cfg, weights);
else if(0==strcmp(argv[2], "demo")) demo(cfg, weights, thresh, cam_index, filename, voc_names, 20, frame_skip, prefix, avg, .5, 0,0,0,0);
}
相關推薦
YOLO原始碼(Darknet原始碼)解讀(im2col.c)
#include "im2col.h" #include <stdio.h> // 獲取影象畫素值 float im2col_get_pixel(float *im, int height, int width, int channels,
YOLO原始碼(Darknet原始碼)解讀(convolutional_layer.c)
#include "convolutional_layer.h" #include "utils.h" #include "batchnorm_layer.h" #include "im2col.h" #include "col2im.h" #include "blas.h" #include "g
YOLO原始碼(Darknet原始碼)解讀(layer.c)
#include "layer.h" #include "cuda.h" #include <stdlib.h> void free_layer(layer l) { if(l.type == DROPOUT){ if(l.rand) fr
YOLO原始碼(Darknet原始碼)解讀(network.c)
network.c #include <stdio.h> #include <time.h> #include <assert.h> #include "network.h" #include "image.h" #include "data.h" #inclu
YOLO原始碼(Darknet原始碼)解讀(utils.c)
utils.c #include <stdio.h> #include <stdlib.h> #include <string.h> #include <math.h> #include <assert.h> #include <u
YOLO原始碼(Darknet原始碼)解讀(yolo.c)
// 將檢測的boxes結果寫入檔案 void print_yolo_detections(FILE **fps, char *id, int total, int classes, int w, int h, detection *dets) { int i, j; for(i = 0; i
GB28181國標2016版本協議文件(報送稿)解讀(一)
2016.08. 備註,2016正式版的28181國標已經發布,請見 本文是新國標(報送稿)與前一版正式稿2011版相比修訂(增加、修改)的部分。具體每一項詳細的解讀見後續文章。 本標準按照GB/
嵌入式設計模式(Design Patterns for Embedded Systems in C)的學習記錄
唉 工作三年有餘,一直在搞嵌入式。準確的說從大學開始就一直在搞,已經到了病入膏肓的地步。此間總是不時出現一些奇怪的想法:人家搞Java、搞C#的動不動就是什麼架構/框架的,搞了這麼久的的嵌入式,我到底搞了什麼?架構/框架?統統木聽說過。。。似乎那些高大上的東
Python的C擴充套件模組的編寫(Anaconda+VS2013,python3.5和c++)
vs2013 調整生成配置,release和與python位數一致的平臺,這裡我選擇x64,因為我的python是64位 建立工程->32位專案->專案型別選DLL 配置工程屬性: ** 在.h檔案中,加入#include
最優裝載(部分揹包問題,貪心,c++)
最優裝載 總時間限制: 1000ms 記憶體限制: 65536kB 描述 給定一個最大載重量為M的卡車和N種食品,有食鹽,白糖,大米等(假設它們都是散裝且大貨車只受重量限制不受體積限制)。已知第i種食品的最多擁有Wi公斤,其商品價值為Vi元/公斤,程式設計
yolo v2 損失函式原始碼(訓練核心程式碼)解讀和其實現原理
前提說明: 1, 關於 yolo 和 yolo v2 的詳細解釋請移步至如下兩個連結,或者直接看論文(我自己有想寫 yolo 的教程,但思前想後下面兩個連結中的文章質量實在是太好了_(:з」∠)_) yolo: https://zhuanlan.
以太坊原始碼解讀(5)BlockChain類的解析及NewBlockChain()分析
一、blockchain的資料結構 type BlockChain struct { chainConfig *params.ChainConfig // 初始化配置 cacheConfig *CacheConfig // 快取配置 db ethdb.Databas
以太坊原始碼解讀(4)Block類及其儲存
一、Block類 type Block struct { /******header*******/ header *Header /******header*******/ /******body*********/ uncle
以太坊原始碼解讀(6)blockchain區塊插入和校驗分析
以太坊blockchain的管理事務: 1、blockchain模組初始化 2、blockchain模組插入校驗分析 3、blockchain模組區塊鏈分叉處理 4、blockchian模組規範鏈更新 上一節分析了blockchain的初始化,這一節來分析blockchain區塊的插入和校驗
以太坊原始碼解讀(7)以太坊的P2P網路基礎
一、分散式網路的來歷 基於P2P技術的應用有很多,包括檔案分享,即時通訊,協同處理,流媒體通訊等等。其中檔案分享和下載是p2p技術最集中體現。其中,DHT技術是目前很多分散式系統所普遍採用的方案,也包括以太坊。所以這裡先要對DHT技術有所瞭解。 二、DHT(Distributed Ha
ORB-SLAM2原始碼解讀(2.2):單目初始化、勻速運動模型跟蹤、跟蹤參考關鍵幀、跟蹤區域性地圖
這裡是Tracking部分的第二部分,詳細講述各分支的程式碼及其實現原理。 單目初始化 MonocularInitialization() 目標:從初始的兩幀單目影象中,對SLAM系統進行初始化(得到初始兩幀的匹配,相機初始位姿,初始MapPoints),以便之後進行跟蹤。 方式
ORB-SLAM2原始碼解讀(2.1):Tracking
Tracking是SLAM的靈魂,更像是前端里程計VO,這裡Tracking的主要任務兩方面:(1)完成相機位姿估計(2)跟蹤區域性地圖 思路:TrackLocalMap()在當前幀和區域性地圖之間找到儘可能多的對應關係,優化當前幀的位姿。對每一幀都進行跟蹤 第一次接觸這麼大的工程,發現之前
ORB-SLAM2原始碼解讀(1):系統入口System
先要拿大名鼎鼎的ORB-SLAM系統框圖鎮樓,看著這張圖能夠完美的串起來整個流程。 ORB-SLAM分三個執行緒,分別是Tracking、LocalMapping和LoopClosing。 (1)Tracking:在主執行緒上,輸入視訊流,輸出相機位姿並跟蹤區域
原始碼解讀(一):String類
曾聽過這麼一句話,美的東西看多了,自己創作的東西也會有所提高。我們的程式設計亦是如此,多看看大神的程式碼,欣賞他們的程式設計藝術,對我們的程式設計會有很大的幫助。而很多人經常忽略這一點,今天就讓ShowTime給大家送上第一道JDK大餐——解讀String類。 第一步看看String
vue原始碼解讀(一)
vue原始碼的目錄結構 vue原始碼根目錄下有很多資料夾,以下是各資料夾存放的檔案說明 Vue |— build 打包相關的配置檔案,其中最重要的是config.js。主要是根據不同的入口,打包為不同的檔案。 &nbs