1. 程式人生 > 程式設計 >python Opencv計算影象相似度過程解析

python Opencv計算影象相似度過程解析

這篇文章主要介紹了python Opencv計算影象相似度過程解析,文中通過示例程式碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下

一、相關概念

一般我們人區分誰是誰,給物品分類,都是通過各種特徵去辨別的,比如黑長直、大白腿、櫻桃脣、瓜子臉。王麻子臉上有麻子,隔壁老王和兒子很像,但是兒子下巴漲了一顆痣和他媽一模一樣,讓你確定這是你兒子。
還有其他物品、什麼桌子帶腿、鏡子反光能在裡面倒影出東西,各種各樣的特徵,我們通過學習、歸納,自然而然能夠很快識別分類出新物品。

而沒有學習訓練過的機器就沒辦法了。

但是影象是一個個畫素點組成的,我們就可以通過不同影象之間這些差異性就判斷兩個圖的相似度了。其中顏色特徵是最常用的,(其餘常用的特徵還有紋理特徵、形狀特徵和空間關係特徵等)

其中又分為

  • 直方圖
  • 顏色集
  • 顏色矩
  • 聚合向量
  • 相關圖

1、直方圖

在Python中利用opencv中的calcHist()方法獲取其直方圖資料,返回的結果是一個列表,使用matplotlib,畫出了這兩張圖的直方圖資料圖

import cv2
import numpy
from matplotlib import pyplot
if __name__ == '__main__':
  imgobj1 = cv2.imread('pho.jpg')
  imgobj2 = cv2.imread('ph1.jpg')
  hist1 = cv2.calcHist([imgobj1],[0],None,[256],[0.0,255.0])
  hist2 = cv2.calcHist([imgobj2],255.0])
  pyplot.plot(range(256),hist1,'r')
  pyplot.plot(range(256),hist2,'b')
  pyplot.show()
  cv2.imshow('img1',imgobj1)
  cv2.imshow('img2',imgobj2)
  cv2.waitKey(0)

1.2 灰度圖及作用

灰度圖是隻含有黑白顏色,和0~255亮度等級的圖片。灰度圖具有儲存小,其亮度值就是256色調色盤索引號,從整幅影象的整體和區域性的色彩以及亮度等級分佈特徵來看,灰度圖描述與彩色圖的描述是一致的特點。因此很多真彩色圖片的分析,第一步就是轉換為灰度圖,然後再進行分析。

真彩色,因為是24位,2(^8) * 2(^8)* 2(^8) = 16777216種顏色,需要調色盤16777216 * 4byte位元組的空間也就是64MB的調色盤空間,所以真彩色是不用調色盤的。

例如視訊目標跟蹤和識別時,第一步就是要轉換為灰度圖。現有的成熟分析演算法多是基於灰度影象的,灰度影象綜合了真彩色點陣圖的RGB各通道的資訊。

(一):單通道圖,

俗稱灰度圖,每個畫素點只能有有一個值表示顏色,它的畫素值在0到255之間,0是黑色,255是白色,中間值是一些不同等級的灰色。(也有3通道的灰度圖,3通道灰度圖只有一個通道有值,其他兩個通道的值都是零)。

(二):三通道圖,每個畫素點都有3個值表示 ,所以就是3通道。也有4通道的圖。例如RGB圖片即為三通道圖片,RGB色彩模式是工業界的一種顏色標準,是通過對紅(R)、綠(G)、藍(B)三個顏色通道的變化以及它們相互之間的疊加來得到各式各樣的顏色的,RGB即是代表紅、綠、藍三個通道的顏色,這個標準幾乎包括了人類視力所能感知的所有顏色,是目前運用最廣的顏色系統之一。總之,每一個點由三個值表示。

直方圖判斷相似度,如上圖,就算重合度即可

1.3 影象指紋和漢明距離

影象指紋:

和人的指紋一樣,是身份的象徵,而影象指紋簡單點來講,就是將影象按照一定的雜湊演算法,經過運算後得出的一組二進位制數字。

漢明距離:

假如一組二進位制資料為101,另外一組為111,那麼顯然把第一組的第二位資料0改成1就可以變成第二組資料111,所以兩組資料的漢明距離就為1

簡單點說,漢明距離就是一組二進位制資料變成另一組資料所需的步驟數,顯然,這個數值可以衡量兩張圖片的差異,漢明距離越小,則代表相似度越高。漢明距離為0,即代表兩張圖片完全一樣。

1.3.1 平均雜湊

此演算法是基於比較灰度圖每個畫素與平均值來實現的

一般步驟:

  • 縮放圖片,一般大小為8*8,64個畫素值。
  • 轉化為灰度圖
  • 計算平均值:計算進行灰度處理後圖片的所有畫素點的平均值,直接用numpy中的mean()計算即可。
  • 比較畫素灰度值:遍歷灰度圖片每一個畫素,如果大於平均值記錄為1,否則為0.
  • 得到資訊指紋:組合64個bit位,順序隨意保持一致性。
  • 最後比對兩張圖片的指紋,獲得漢明距離即可。
import cv2
import numpy as np

img1 = cv2.imread("/absPath.png")
img2 = cv2.imread("./x.png")

#調整到8*8
img1 = cv2.resize(img1,(8,8))
img2 = cv2.resize(img2,8))

#轉化為灰度圖
gray1 = cv2.cvtColor(img1,cv2.COLOR_BGR2GRAY)
gray2 = cv2.cvtColor(img2,cv2.COLOR_BGR2GRAY)

#獲取雜湊
hash1 = getHash(gray1)
hash2 = getHash(gray2)

ret = Hamming_distance(hash1,hash2)


# 輸入灰度圖,返回hash
def getHash(image):
  avreage = np.mean(image) #計算畫素平均值
  hash = []
  for i in range(image.shape[0]):
    for j in range(image.shape[1]):
      if image[i,j] > avreage:
        hash.append(1)
      else:
        hash.append(0)
  return hash
# 計算漢明距離
def Hamming_distance(hash1,hash2):
  num = 0
  for index in range(len(hash1)):
    if hash1[index] != hash2[index]:
      num += 1
  return num

1.3.2 感知雜湊及d雜湊

感知雜湊演算法(pHash)

平均雜湊演算法過於嚴格,不夠精確,更適合搜尋縮圖,為了獲得更精確的結果可以選擇感知雜湊演算法,它採用的是DCT(離散餘弦變換)來降低頻率的方法

一般步驟:

  • 縮小圖片:32 * 32是一個較好的大小,這樣方便DCT計算
  • 轉化為灰度圖
  • 計算DCT:利用Opencv中提供的dct()方法,注意輸入的影象必須是32位浮點型,所以先利用numpy中的float32進行轉換
  • 縮小DCT:DCT計算後的矩陣是32 * 32,保留左上角的8 * 8,這些代表的圖片的最低頻率
  • 計算平均值:計算縮小DCT後的所有畫素點的平均值。
  • 進一步減小DCT:大於平均值記錄為1,反之記錄為0.
  • 得到資訊指紋:組合64個資訊位,順序隨意保持一致性。
  • 最後比對兩張圖片的指紋,獲得漢明距離即可。

dHash演算法

相比pHash,dHash的速度要快的多,相比aHash,dHash在效率幾乎相同的情況下的效果要更好,它是基於漸變實現的。

步驟:

縮小圖片:收縮到9*8的大小,以便它有72的畫素點

轉化為灰度圖

計算差異值:dHash演算法工作在相鄰畫素之間,這樣每行9個畫素之間產生了8個不同的差異,一共8行,則產生了64個差異值
獲得指紋:如果左邊的畫素比右邊的更亮,則記錄為1,否則為0.
最後比對兩張圖片的指紋,獲得漢明距離即可。

dHash:

#差值感知演算法
def dhash(image1,image2):
  image1 = cv2.resize(image1,(9,8))
  image2 = cv2.resize(image2,8))
  gray1 = cv2.cvtColor(image1,cv2.COLOR_BGR2GRAY) #切換至灰度圖
  gray2 = cv2.cvtColor(image2,cv2.COLOR_BGR2GRAY)
  hash1 = dhashcaulate(gray1)
  hash2 = dhashcaulate(gray2)
  return Hamming_distance(hash1,hash2)
 
def dhashcaulate(gray):
  hash_str = ''
  for i in range(8):
    for j in range(8):
      if gray[i,j] > gray[i,j + 1]:
        hash_str = hash_str + '1'
      else:
        hash_str = hash_str + '0'
  return hash_str

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支援我們。