1. 程式人生 > >基於慣性大水滴滴水演算法和支援向量機的粘連字元驗證碼識別

基於慣性大水滴滴水演算法和支援向量機的粘連字元驗證碼識別

這幾天閒來無事,在等雅思成績出來的過程中,只能寫點東西來打發時間。剛好在上影象處理這門課,於是就想寫個驗證碼識別,普通的驗證碼識別難度太低,於是想要做粘連扭曲的驗證碼識別,如12306的驗證碼識別,此外,這個演算法同樣也可以適用於手寫體識別,反而我覺得手寫體比12306的驗證碼還容易一點。這裡我不得不佩服那些搶票公司的那些技術大牛。

話不多說,程式碼我待會貼出來,先給大家介紹一下工程目錄,和實現原理。

---------------------------------------------------------------------------------------------------------------


---------------------------------------------------------------------------------------------------------------

由於我寫成了實驗報告的形式,插圖太多,所以就只能截圖放上來了,這裡我強烈建議CSDN做一個Windows客戶端的部落格編輯器,不需要自己手動上傳圖片,真的會搞死人得。

下面就是專案工程的目錄:



------------------------------------------------------------------------------------

----------------------------

---------下面是實驗報告,是截圖的形式,pdf我以後再上傳

----------------------------------------------------------------------------------------------------------------









相關推薦

基於慣性水滴滴水演算法支援向量粘連字元驗證識別

這幾天閒來無事,在等雅思成績出來的過程中,只能寫點東西來打發時間。剛好在上影象處理這門課,於是就想寫個驗證碼識別,普通的驗證碼識別難度太低,於是想要做粘連扭曲的驗證碼識別,如12306的驗證碼識別,此外,這個演算法同樣也可以適用於手寫體識別,反而我覺得手寫體比12306的驗

演算法學習——支援向量SVM

SVM現在的公式推導很多,都是現成的,而且寫的也很好,我會提供相關資源,這篇博文主要從思想理解的方面做一個簡單介紹。 1、SVM 是如何工作的? 支援向量機的基礎概念可以通過一個簡單的例子來解釋。讓我們想象兩個類別:紅色和藍色,我們的資料有兩個特徵:x 和 y。我們想要一個分類器,給定一

邏輯迴歸(LR)支援向量(SVM)的區別聯絡

1. 前言 在機器學習的分類問題領域中,有兩個平分秋色的演算法,就是邏輯迴歸和支援向量機,這兩個演算法個有千秋,在不同的問題中有不同的表現效果,下面我們就對它們的區別和聯絡做一個簡單的總結。 2. LR和SVM的聯絡 都是監督的分類演算法。 都是線性分類方法 (不考慮核函式時)。 都是判別

機器學習演算法——SVM(支援向量)

文章目錄 1. SVM簡介 2. SVM的一些概念 2.1 函式間隔與幾何間隔 2.2 支援向量 3. SVM模型目標函式與優化 3.1 SVM模型目標函式的推導(線性可分)

邏輯迴歸、決策樹支援向量

摘要:分類問題是商業業務中遇到的主要問題之一。本文對三種主要技術展開討論,邏輯迴歸(Logistic Regression)、決策樹(Decision Trees)和支援向量機(Support Vector Machine,SVM)。 分類問題是我們在各個行業的商業業務中遇到的主要問題之一。在本

利用hog+svm(梯度方向直方圖支援向量)實現物體檢測

最近利用hog+svm做了一個物體檢測的小程式,可以先給大家看看實驗的結果。從照片中,檢測出以任意姿態擺放在任意位置的公仔。(其實打算檢測是紅色的大公仔,但是小的公仔也被檢測了出來,至於為什麼會這樣以及這個問題的解決方法,咱們下面可以接著討論) 其實吧,網上關於hog和s

分類演算法支援向量--原理+案例+程式碼

分類演算法 之 支援向量機–原理+案例+程式碼 標籤(空格分隔): SPARK機器學習 1. 支援向量機的概述 1.1 解決問題的型別 支援向量機(SVM:support vactor machine)用於解決: (1)分類問題。最初解決了

資料探勘---分類演算法支援向量SVM

           這篇來說說支援向量機,說實在的,這個是我的最愛,一直比較看好這個演算法,而且也是花了不少時間在這個上面,下面一起來複習下。同上篇,下面摘自本人的畢業設計論文中,後面給出參考文獻。            基於統計學習理論的支援向量機演算法是現代智慧技術

支援向量演算法的實現應用(Python3超詳細的原始碼實現+圖介紹)

支援向量機演算法的實現和應用,因為自己推到過SVM,建議自己推到一遍, 這裡不對SVM原理做詳細的說明。 原理公式推到推薦看:https://blog.csdn.net/jcjx0315/article/details/61929439 #!/usr/bin/env python # enc

資料探勘十演算法——支援向量SVM(一):線性支援向量

首先感謝“劉建平pinard”的淵博知識以及文中詳細準確的推導!!! 本文轉自“劉建平pinard”,原網址為:http://www.cnblogs.com/pinard/p/6097604.html。 支援向量機原理SVM系列文章共分為5部分: (一)線性支援向量機

資料探勘十演算法——支援向量SVM(四):SMO演算法原理

首先感謝“劉建平pinard”的淵博知識以及文中詳細準確的推導!!! 支援向量機原理SVM系列文章共分為5部分: (一)線性支援向量機 (二)線性支援向量機的軟間隔最大化模型 (三)線性不可分支援向量機與核函式 (四)SMO演算法原理 (五)線性支援迴歸

基於時間的反向傳播演算法梯度消失 -part3

本文翻譯自 前文從零開始實現了RNN,但是沒有詳細介紹Backpropagation Through Time (BPTT) 演算法如何實現梯度計算。這篇文章將詳細介紹BPTT。之後會分析梯度消失問題,它導致了LSTM和GRU的發展,這是兩個在NLP領域最為流

資料探勘十演算法——支援向量SVM(二):線性支援向量的軟間隔最大化模型

首先感謝“劉建平pinard”的淵博知識以及文中詳細準確的推導!!! 支援向量機原理SVM系列文章共分為5部分: (一)線性支援向量機 (二)線性支援向量機的軟間隔最大化模型 (三)線性不可分支援向量機與核函式 (四)SMO演算法原理 (五)線性支援迴歸

經典預測演算法(四)----支援向量(SVM演算法

一、概念:SVM思想和線性迴歸很相似,兩個都是尋找一條最佳直線。 不同點:最佳直線的定義方法不一樣,線性迴歸要求的是直線到各個點的距離最近,SVM要求的是直線離兩邊的點距離儘量大。   SVM本質,   距離測度,即把點的座標轉換成點到幾個固定點的距離 ,從而實現升維。  

資料探勘十演算法——支援向量SVM(五):線性支援迴歸

首先感謝“劉建平pinard”的淵博知識以及文中詳細準確的推導!!! 支援向量機原理SVM系列文章共分為5部分: (一)線性支援向量機 (二)線性支援向量機的軟間隔最大化模型 (三)線性不可分支援向量機與核函式 (四)SMO演算法原理 (五)線性支援迴歸

『資料探勘十演算法 』筆記二:SVM-支援向量

資料探勘Top 10演算法 C4.5, k-Means, SVM, Apriori, EM, PageRank, AdaBoost, kNN, Naive Bayes, and CART 支援向量機 支援向量機,英文為Support Ve

二分圖的最匹配匈牙利演算法最小支配集

求二分圖最大匹配(指派問題)的匈牙利演算法:   談匈牙利演算法自然避不開Hall定理,即是:對於二部圖G,存在一個匹配M, 使得X的所有頂點關於M飽和的充要條件是:對於X的任意一個子集A,和A鄰接的點集為T(A),恆有:   |T(A)|   > =   |A|  

支援向量—SMO論文詳解(序列最小最優化演算法

SVM的學習演算法可以歸結為凸二次規劃問題。這樣的凸二次規劃問題具有全域性最優解,並且許多最優化演算法可以用來求解,但是當訓練樣本容量很大時,這些演算法往往變得非常低效,以致無法使用。論文《Sequential Minimal Optimization:A Fast Algori

4.支援向量(SVM)演算法(下)

1.SVM演算法的特點  1.1 訓練好的模型的演算法複雜度是由支援向量的個數決定的,而不是由資料的維度決定的。 所有SVM不太容易產生overfitting 1.2 SVM訓練出來的模型完全依賴於支援向量(Support Vectors),即使訓練集裡面所有非支援向量的點都

3.支援向量(SVM)演算法(上)

SVM 1.基本概念 支援向量機(Support Vector Machine, SVM)的基本模型是在特徵空間上找到最佳的分離超平面使得訓練集上正負樣本間隔最大。SVM是用來解決二分類問題的有監督學習演算法,在引入了核方法之後SVM也可以用來解決非線性問題。  一般SVM有下面三