1. 程式人生 > >keras 影象識別例項CIFAR-10分類,匯入資料,檢視最初9張圖片

keras 影象識別例項CIFAR-10分類,匯入資料,檢視最初9張圖片

圖片識別是卷積神經網路的主要應用之一。這個資料集是有Alex Krizhevsky 、 Vinod Nair 和GeoffreyHinton手機整理。共包含了60000張32* 32的彩色影象,50000張用於訓練模型、10000張用於評估模型。訓練的資料集被均勻分成10個類別,每個類別剛好包含5000張圖片。

在keras提供了資料載入的函式,可以非常簡單的匯入資料。第一次匯入時,keras會從網路下載資料到本地,之後就可以直接從本地載入資料,用於神經網路模型的每次執行模型產生相同的模型,資料匯入後,會設定隨機種子,並檢視9張圖片程式碼如下:

#!/usr/bin/env python
# -*- coding: UTF-8 -*-
from keras.datasets import cifar10
from matplotlib import pyplot as plt
from scipy.misc import toimage
import numpy as np
#匯入資料
(X_train, y_train), (X_validation, y_validation) = cifar10.load_data()

for i in range(0,9 ):
    plt.subplot(331 + i)
    plt.imshow(toimage(X_train[i]))
    #顯示圖片
    plt.show()
    #設定隨機種子
    seed = 7
    np.random.seed(seed)

相關推薦

keras 影象識別例項CIFAR-10分類匯入資料檢視最初9圖片

圖片識別是卷積神經網路的主要應用之一。這個資料集是有Alex Krizhevsky 、 Vinod Nair 和GeoffreyHinton手機整理。共包含了60000張32* 32的彩色影象,50000張用於訓練模型、10000張用於評估模型。訓練的資料集被均勻分成10個類

基於KerasCIFAR-10-分類

一、概述 CIFAR-10是一個比較經典的資料集,主要用於影象分類; 該資料集共有60000張彩色影象,這些影象是32*32,分為10個類,每類6000張圖。這裡面有50000張用於訓練,構成了5個訓練批,每一批10000張圖;另外10000用於測試,單獨構成

keras影象識別

終於抓住11月的尾部,趕在12月到來之前進行更新了,2018準備要跟我們說拜拜了,小夥伴們你們今年的目標實現了嗎?,好了扯遠了,今天趁著有時間更新一下部落格,記錄一下使用keras + tensorflow + cpu 如何進行影象識別 以下的教程是基於Linux系統來實現的,有wind

keras 處理文字分類數值資料並新增進網路的步驟和方法

一,讀取資料: 主要使用pandas 讀取,以後考慮使用其他方法(libsvm等) 二,獲取訓練集和測試集: 這一步主要是劃分資料集,drop()掉訓練集裡的預測那一列 三,處理缺失值: 可以使用fillna(value,inplace)來把缺失值補全 四:送入網

DeepLearning (五) 基於Keras的CNN 訓練cifar-10 資料庫

資料庫介紹 開發工具 網路框架 訓練結果 訓練要點 啟用函式 訓練程式碼 注:新版本的keras使用時,可能會報max_pool_2d() got an unexpected keyword argument ‘mode 這個錯誤,

tensorflow、多GPU、多執行緒訓練VGG19來做cifar-10分類

背景:幾天前需要寫個多GPU訓練的演算法模型,翻來覆去在tensorflow的官網上看到cifar-10的官方程式碼,花了三天時間去掉程式碼的冗餘部分和改寫成自己的風格。程式碼共有6部分構成:1、data_input.py 由於cifar-10官方訓練集和驗證集都是.bin格

Tensorflow實現CIFAR-10分類問題-詳解四cifar10_eval.py

最後我們採用cifar10_eval.py檔案來評估以下訓練模型在保留(hold-out samples)樣本下的表現力,其中保留樣本的容量為10000。為了驗證模型在訓練過程中的表現能力的變化情況,我們驗證了最近一些訓練過程中產生的checkpoint fil

Pytorch打怪路(一)pytorch進行CIFAR-10分類(4)訓練

pytorch進行CIFAR-10分類(4)訓練 我的系列博文: 1、簡述 經過前面的資料載入和網路定義後,就可以開始訓練了,這裡會看到前面遇到的一些東西究竟在後面會有什麼用,所以這一

Caffe深度學習進階之Cifar-10分類任務(上)

前言 Cifar-10資料集是深度學習領域一個常見的資料集。Cifar-10由60000張32*32的RGB彩色圖片構成,一共包含有飛機、汽車、鳥、毛、鹿、狗、青蛙、馬、船、卡車這10個類別。50000張訓練,10000張測試。常被用來作為分類任務來評價深度學

Tensorflow實現CIFAR-10分類問題-詳解二cifar10.py

上一篇cifar1_train.py主要呼叫的都是cifar10.py這個檔案中的函式。我們來看cifar10.py,網路結構也主要包含在這個檔案當中,整個訓練圖包含765個操作(operations),cifar10.py圖主要有三個模組組成: Model

cifar-10 分類 tensorflow 程式碼

看了黃文堅、唐源的《TensorFlow實戰》對mnist分類的cnn教程,然後上網搜了下,發現挺多博主貼了對mnist分類的tensorflow程式碼,我想在同樣框架下測試cifar-10分類效果,折騰了好幾天,匯入資料、資料預處理等,終於把程式碼寫出來了,寫

【Pytorch】CIFAR-10分類任務

CIFAR-10資料集共有60000張32*32彩色圖片,分為10類,每類有6000張圖片。其中50000張用於訓練,構成5個訓練batch,每一批次10000張圖片,其餘10000張圖片用於測試。 CIFAR-10資料集下載地址:點選下載 資料讀取,這裡選擇下載py

10個學生每個學生的資料包括學號、姓名、3門課程的成績。讀入這10個學生的資料要求輸出3門課程的總平均成績以及個人平均分最高的學生的資料

輸入 共有10行,每行包含了一個學生的學號(整數)、名字(長度不超過19的無空格字串)和3門課程的成績(0至100之間的整數),用空格隔開。 輸出 第一行包含了3個實數,分別表示3門課程的總平均成績,保留2位小數,每個數之後輸出一個空格。 第二行輸出個人平均分最高的學生的資料,與輸入資料

雲端計算資料人工智慧三者有何關係?【轉】

轉自:【http://cloud.idcquan.com/yjs/115806.shtml】原文:來源:今日頭條/領先網路 2017-05-02 17:17 雲端計算,大資料,和人工智慧,最近火的不行不行的詞彙,似乎不相同,但又似乎相互關聯,到底是什麼樣的關係呢?其實他們本沒有什麼關係,各自活在不

自定義標籤庫匯入異常報500錯誤

HTTP Status 500 - The absolute uri: http://java.zcb.common cannot be resolved in either web.xml or the jar files deployed with this application

使用kettle來根據時間戳或者批次號來批量匯入資料達到增量的效果。

1、Kettle是一款國外開源的ETL工具,純java編寫,可以在Window、Linux、Unix上執行,資料抽取高效穩定。下載圖形化介面的zip包格式的,直接解壓縮使用即可。安裝部署模式這裡不說了,自己可以根據自己的需求安裝為單機模式或者叢集模式。    Kettle的社群官

各種下載檢視文件學習資料上傳應用平臺等網站

1、Android Studio 、JDK 、 Tools 、 ADT 、 SDK 、 GRADLE 、映象 等  -----下載地址如下   http://www.android-studio.org/ 2、 天氣氣象介面。 &nb

Java資料機器學習深度學習學習資源

Java,大資料,機器學習,深度學習,學習資源 Java 基礎 Java 程式設計思想 Java Web 和大資料 Spark 中文文件 Storm 中文文件 Kafka 中文文件 Flink 中文文件 Beam 中

NodeJs實現以太坊錢包keystore生成匯入私鑰匯出私鑰匯入keystore匯出Keystore簽名轉賬轉賬確認

Keythereum是一個用於生成,匯入和匯出以太坊金鑰的JavaScript工具。 這提供了一種在本地和Web錢包中使用同一帳戶的簡單方法。 它可用於可驗證和儲存錢包。 Keythereum使用相同的金鑰派生函式(PBKDF2-SHA256或scrypt),對稱密碼(AES-128

將根據時間戳增量資料方案修改為根據批次號增量資料方案 使用kettle來根據時間戳或者批次號來批量匯入資料達到增量的效果。

1、之前寫過根據時間戳來增量資料,時間戳增量資料存在一定的缺點,就是如果開啟自動的話,以後如果因為某個外在因素出錯了,那麼這個開始時間和結束時間不好控制,那麼就可能造成一些其他資料量不準的情況,但是根據批次號不會出現這個問題: 使用kettle來根據時間戳或者批次號來批量匯入資料,達到增量的效果。