自己寫程式利用lenet模型識別手寫數字
自己編寫程式,將手寫圖片送入訓練得到的lenet模型,評估識別結果。
code:https://github.com/lhnows/caffeProjects
如果自己的caffe是用CMakeLists編譯安裝的,這樣的話,可以執行如下的CMakeLists來編譯自己的呼叫了caffe庫的程式
CMakeLists.txt
cmake_minimum_required (VERSION 2.8)
PROJECT (mnistTest)
# Requires OpenCV v2.4.1 or later
FIND_PACKAGE( OpenCV REQUIRED )
IF (${OpenCV_VERSION} VERSION_LESS 2.4.1)
MESSAGE(FATAL_ERROR "OpenCV version is not compatible : ${OpenCV_VERSION}. requires atleast OpenCV v2.4.1")
ENDIF()
find_package(Caffe)
include_directories(${Caffe_INCLUDE_DIRS})
add_definitions(${Caffe_DEFINITIONS})
add_executable(${PROJECT_NAME} mnistTest.cpp)
include_directories ( /Users/liuhao/devlibs/deeplearning/caffe/install/include
/usr/local/include
/usr/local/cuda/include )
target_link_libraries(${PROJECT_NAME} ${Caffe_LIBRARIES}
${OpenCV_LIBS} )
mnistTest.cpp
#define USE_OPENCV 1
#define CPU_ONLY 1
//貌似caffe有3種矩陣計算加速方式 mkl accelerate blas,本人Mac編譯的可能是下面這種(其他會報錯找不到標頭檔案)
//#define USE_ACCELERATE
#include <iostream>
#include <string>
#include <caffe/caffe.hpp>
#include <vector>
#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include "head.h"
#include <algorithm>
#include <iosfwd>
#include <memory>
#include <utility>
#include <vector>
using namespace caffe;
using namespace cv;
cv::Point previousPoint(-1, -1), nowPoint(-1, -1);
Mat srcimage=Mat::zeros(280,280,CV_8UC1);
Mat srcimageori = Mat::zeros(280, 280, CV_8UC1);
class Classifier {
public:
Classifier(const string& model_file,
const string& trained_file);
int Classify(const cv::Mat& img);
private:
std::vector<int> Predict(const cv::Mat& img);
void WrapInputLayer(std::vector<cv::Mat>* input_channels);
void Preprocess(const cv::Mat& img,
std::vector<cv::Mat>* input_channels);
private:
shared_ptr<Net<float> > net_;
cv::Size input_geometry_;
int num_channels_;
};
Classifier::Classifier(const string& model_file,
const string& trained_file)
{
#ifdef CPU_ONLY
Caffe::set_mode(Caffe::CPU);
#else
Caffe::set_mode(Caffe::GPU);
#endif
/* Load the network. */
net_.reset(new Net<float>(model_file, TEST));
net_->CopyTrainedLayersFrom(trained_file);
CHECK_EQ(net_->num_inputs(), 1) << "Network should have exactly one input.";
CHECK_EQ(net_->num_outputs(), 1) << "Network should have exactly one output.";
Blob<float>* input_layer = net_->input_blobs()[0];
num_channels_ = input_layer->channels();
CHECK(num_channels_ == 3 || num_channels_ == 1)
<< "Input layer should have 1 or 3 channels.";
input_geometry_ = cv::Size(input_layer->width(), input_layer->height());
}
/* Return the top N predictions. */
int Classifier::Classify(const cv::Mat& img) {
std::vector<int> output = Predict(img);
std::vector<int>::iterator iter=find(output.begin(), output.end(), 1);
int prediction = distance(output.begin(), iter);
return prediction<10 ? prediction:0;
}
std::vector<int> Classifier::Predict(const cv::Mat& img) {
Blob<float>* input_layer = net_->input_blobs()[0];
input_layer->Reshape(1, num_channels_,
input_geometry_.height, input_geometry_.width);
/* Forward dimension change to all layers. */
net_->Reshape();
std::vector<cv::Mat> input_channels;
WrapInputLayer(&input_channels);
Preprocess(img, &input_channels);
net_->Forward();
/* Copy the output layer to a std::vector */
Blob<float>* output_layer = net_->output_blobs()[0];
const float* begin = output_layer->cpu_data();
const float* end = begin + output_layer->channels();
return std::vector<int>(begin, end);
}
void Classifier::WrapInputLayer(std::vector<cv::Mat>* input_channels) {
Blob<float>* input_layer = net_->input_blobs()[0];
int width = input_layer->width();
int height = input_layer->height();
float* input_data = input_layer->mutable_cpu_data();
for (int i = 0; i < input_layer->channels(); ++i) {
cv::Mat channel(height, width, CV_32FC1, input_data);
input_channels->push_back(channel);
input_data += width * height;
}
}
void Classifier::Preprocess(const cv::Mat& img,
std::vector<cv::Mat>* input_channels) {
/* Convert the input image to the input image format of the network. */
cv::Mat sample;
if (img.channels() == 3 && num_channels_ == 1)
cv::cvtColor(img, sample, cv::COLOR_BGR2GRAY);
else if (img.channels() == 4 && num_channels_ == 1)
cv::cvtColor(img, sample, cv::COLOR_BGRA2GRAY);
else if (img.channels() == 4 && num_channels_ == 3)
cv::cvtColor(img, sample, cv::COLOR_BGRA2BGR);
else if (img.channels() == 1 && num_channels_ == 3)
cv::cvtColor(img, sample, cv::COLOR_GRAY2BGR);
else
sample = img;
cv::Mat sample_resized;
if (sample.size() != input_geometry_)
cv::resize(sample, sample_resized, input_geometry_);
else
sample_resized = sample;
cv::Mat sample_float;
if (num_channels_ == 3)
sample_resized.convertTo(sample_float, CV_32FC3);
else
sample_resized.convertTo(sample_float, CV_32FC1);
cv::split(sample_float, *input_channels);
CHECK(reinterpret_cast<float*>(input_channels->at(0).data)
== net_->input_blobs()[0]->cpu_data())
<< "Input channels are not wrapping the input layer of the network.";
}
static void on_Mouse(int event, int x, int y, int flags, void*)
{
if (event == EVENT_LBUTTONUP || !(flags&EVENT_FLAG_LBUTTON))
{
previousPoint = cv::Point(-1,-1);
}
else
if (event == EVENT_LBUTTONDOWN)
{
previousPoint = cv::Point(x, y);
}
else if (event == EVENT_MOUSEMOVE || (flags&EVENT_FLAG_LBUTTON))
{
cv::Point pt(x, y);
if (previousPoint.x<0)
{
previousPoint = pt;
}
line(srcimage, previousPoint, pt, Scalar(255), 16, 8, 0);
previousPoint = pt;
imshow("result", srcimage);
}
}
int main(int argc, char** argv)
{
::google::InitGoogleLogging(argv[0]);
#ifdef CPU_ONLY
Caffe::set_mode(Caffe::CPU);
#else
Caffe::set_mode(Caffe::GPU);
#endif
string model_file = "lenet.prototxt";
string trained_file = "lenet_iter_10000.caffemodel";
Classifier classifier(model_file, trained_file);
std::cout << "------directed by watersink------" << std::endl;
std::cout << "------------enter:退出-----------" << std::endl;
std::cout << "--------------1:還原-------------" << std::endl;
std::cout << "-------------2:寫數字------------" << std::endl;
std::cout << "[email protected]" << std::endl;
imshow("result", srcimage);
setMouseCallback("result", on_Mouse, 0);
while (1)
{
char c = (char)waitKey();
if (c == 27)
break;
if (c=='1')
{
srcimageori.copyTo(srcimage);
imshow("result", srcimage);
}
if (c == '2')
{
cv::Mat img;
cv::resize(srcimage, img, cv::Size(28, 28));
CHECK(!img.empty()) << "Unable to decode image " << std::endl;
int prediction = classifier.Classify(img);
std::cout << "prediction:" << prediction << std::endl;
imshow("result", srcimage);
}
}
waitKey();
return 0;
}
head.h
#include <caffe/common.hpp>
#include <caffe/layer.hpp>
#include <caffe/layer_factory.hpp>
#include <caffe/layers/input_layer.hpp>
#include <caffe/layers/inner_product_layer.hpp>
#include <caffe/layers/dropout_layer.hpp>
#include <caffe/layers/conv_layer.hpp>
#include <caffe/layers/relu_layer.hpp>
#include <caffe/layers/pooling_layer.hpp>
#include <caffe/layers/softmax_layer.hpp>
namespace caffe
{
extern INSTANTIATE_CLASS(InputLayer);
extern INSTANTIATE_CLASS(InnerProductLayer);
extern INSTANTIATE_CLASS(DropoutLayer);
extern INSTANTIATE_CLASS(ConvolutionLayer);
//REGISTER_LAYER_CLASS(Convolution);
extern INSTANTIATE_CLASS(ReLULayer);
//REGISTER_LAYER_CLASS(ReLU);
extern INSTANTIATE_CLASS(PoolingLayer);
//REGISTER_LAYER_CLASS(Pooling);
extern INSTANTIATE_CLASS(SoftmaxLayer);
//REGISTER_LAYER_CLASS(Softmax);
}
cmake.. & make
$ cmake ..
-- The C compiler identification is AppleClang 8.1.0.8020042
-- The CXX compiler identification is AppleClang 8.1.0.8020042
-- Check for working C compiler: /Library/Developer/CommandLineTools/usr/bin/cc
-- Check for working C compiler: /Library/Developer/CommandLineTools/usr/bin/cc -- works
-- Detecting C compiler ABI info
-- Detecting C compiler ABI info - done
-- Detecting C compile features
-- Detecting C compile features - done
-- Check for working CXX compiler: /Library/Developer/CommandLineTools/usr/bin/c++
-- Check for working CXX compiler: /Library/Developer/CommandLineTools/usr/bin/c++ -- works
-- Detecting CXX compiler ABI info
-- Detecting CXX compiler ABI info - done
-- Detecting CXX compile features
-- Detecting CXX compile features - done
-- Found OpenCV: /usr/local (found version "3.2.0")
-- Configuring done
-- Generating done
-- Build files have been written to: /Users/liuhao/projects/caffeProjects/mnistTest/build
$ make
Scanning dependencies of target mnistTest
[ 50%] Building CXX object CMakeFiles/mnistTest.dir/mnistTest.cpp.o
[100%] Linking CXX executable mnistTest
[100%] Built target mnistTest
輸入./mnistTests 執行
相關推薦
自己寫程式利用lenet模型識別手寫數字
自己編寫程式,將手寫圖片送入訓練得到的lenet模型,評估識別結果。 code:https://github.com/lhnows/caffeProjects 如果自己的caffe是用CMakeLists編譯安裝的,這樣的話,可以執行如下的CMakeList
第14章 LeNet:識別手寫數字
文件包含 ali 2個 程序代碼 cnn 代碼 出了 ieee 隱藏 第14章 LeNet:識別手寫數字 LeNet架構時深度學習社區的一個開創性工作,見論文【1】,作者在實現LeNet的主要創新點是用於OCR上。LeNet架構簡單輕巧(就內存占用而言),這使它
Android 通過 TensorFlow 訓練模型識別手寫數字
隨著機器學習的發展,目前已經湧現出很多不錯的學習框架,其中 Google 推出的 Tensorflow 是最流行的可以說沒有之一,並且越來越多的機器學習成果應用到移動端,例如人臉檢測、語音識別的 App。本場 Chat 將用最簡單的方式,利用 Tensorflo
Tensorflow實戰——利用Softmax Regression識別手寫數字
1. 匯入資料集 2. 檢視資料集(784維【28*28】, label【10維】,訓練集,測試集,驗證集) 3. 定義輸入x,w, b 4. 使用Softmax Regression模型 5. 使用cross-entropy作為loss-function 6
第一章: 利用神經網路識別手寫數字
人類視覺系統是大自然的一大奇蹟。 考慮下面的手寫數字序列: 大部分人能夠毫不費力的識別出這些數字是 504192。這種簡單性只是一個幻覺。在我們大腦各半球,有一個主要的視覺皮層,即V1,它包含1.4億個神經元以及數以百億的神經元連線。而且人類不只
Tensorflow - Tutorial (7) : 利用 RNN/LSTM 進行手寫數字識別
ddc htm net sets 手寫 n-2 align csdn global 1. 經常使用類 class tf.contrib.rnn.BasicLSTMCell BasicLSTMCell 是最簡單的一個LSTM類。沒有實現clippi
利用卷積神經網路識別手寫數字
1.測試資料準備 1.我們使用的測試資料,可以直接從keras.datasets.mnist匯入 import numpy as np import seaborn as sns import matplotlib.pyplot as plt plt.rcParams['figure
TF之CNN:利用sklearn(自帶手寫圖片識別資料集)使用dropout解決學習中overfitting的問題+Tensorboard顯示變化曲線
import tensorflow as tf from sklearn.datasets import load_digits #from sklearn.cross_validation import train_test_split from sklearn.model_selection import
python 實現識別手寫 MNIST數字集的程式
原英文檢視:http://neuralnetworksanddeeplearning.com/chap1.html 我們需要做的第⼀件事情是獲取 MNIST 資料。如果你是⼀個 git ⽤⼾,那麼你能夠 通過克隆這本書的程式碼倉庫獲得資料, 實現我們的⽹絡來分類數字git
pytorch 利用lstm做mnist手寫數字識別分類
程式碼如下,U我認為對於新手來說最重要的是學會rnn讀取資料的格式。 # -*- coding: utf-8 -*- """ Created on Tue Oct 9 08:53:25 2018 @author: www """ import sys sys.path
利用Python實現k最近鄰演算法 並識別手寫數字(詳細註釋)
K最近鄰(k-Nearest Neighbor,KNN)分類演算法,是一個理論上比較成熟的方法,也是較為簡單的機器學習演算法之一。該方法的思路是:如果一個樣本在特徵空間中的k個最相似(即特徵空間中最鄰近)的樣本中的大多數屬於某一個類別,則該樣本也屬於這個類別。K最近鄰
吳裕雄 python 神經網絡——TensorFlow實現AlexNet模型處理手寫數字識別MNIST數據集
its iter style 輸出 init 向量 數字 ict sha import tensorflow as tf # 輸入數據 from tensorflow.examples.tutorials.mnist import input_data m
學習筆記TF024:TensorFlow實現Softmax Regression(回歸)識別手寫數字
概率 none nump 簡單 測試數據 python dice bat desc TensorFlow實現Softmax Regression(回歸)識別手寫數字。MNIST(Mixed National Institute of Standards and Techno
[神經網絡與深度學習(一)]使用神經網絡識別手寫數字
線性 部分 logs 結構 這一 可用 調整 重復 http 1.1 感知器 感知器的輸出為: wj為權重,表示相應輸入對輸出的重要性; threshold為閾值,決定神經元的輸出為0或1。 也可用下式表示: 其中b=-threshold,稱為感知器的偏置
TensorFlow實現Softmax Regression識別手寫數字中"TimeoutError: [WinError 10060] 由於連接方在一段時間後沒有正確答復或連接的主機沒有反應,連接嘗試失敗”問題
http 截圖 技術 數字 alt 分享圖片 inf 主機 orf 出現問題: 在使用TensorFlow實現MNIST手寫數字識別時,出現“TimeoutError: [WinError 10060] 由於連接方在一段時間後沒有正確答復或連接的主機沒有反應,連接嘗試失敗”
TensorFlow實戰之Softmax Regression識別手寫數字
一次 說明 基本 過度 pro 分類函數 數值 fun nump 關於本文說明,本人原博客地址位於http://blog.csdn.net/qq_37608890,本文來自筆者於2018年02月21日 23:10:04所撰寫內容(http://blog.csdn.
多層感知器識別手寫數字算法程序
itl cti val shape erb ase 鏈接 n) frame 1 #coding=utf-8 2 #1.數據預處理 3 import numpy as np #導入模塊,numpy是擴展鏈接庫 4 import pan
卷積神經網絡識別手寫數字實例
取出 return hot lte git tensor on() port cross 卷積神經網絡識別手寫數字實例: import tensorflow as tf from tensorflow.examples.tutorials.mnist import i
全連接神經網絡實現識別手寫數據集MNIST
網絡 set com 系統開發 進制 識別 二進制 下載 style 全連接神經網絡實現識別手寫數據集MNIST MNIST是一個由美國由美國郵政系統開發的手寫數字識別數據集。手寫內容是0~9,一共有60000個圖片樣本,我們可以到MNIST官網免費下載。總共4個文件,該
全連線神經網路實現識別手寫資料集MNIST
全連線神經網路實現識別手寫資料集MNIST MNIST是一個由美國由美國郵政系統開發的手寫數字識別資料集。手寫內容是0~9,一共有60000個圖片樣本,我們可以到MNIST官網免費下載。總共4個檔案,該檔案是二進位制內容。 train-images-idx3-ubyte.gz: trainin