Tensorflow官網CIFAR-10資料分類教程程式碼詳解
標題
概述
對CIFAR-10 資料集的分類是機器學習中一個公開的基準測試問題,本教程程式碼通過解決CIFAR-10資料分類任務,介紹了Tensorflow的一些高階用法,演示了構建大型複雜模型的一些重要技巧,著重於建立一個規範的網路組織結構,訓練並進行評估,為建立更大規模更加複雜的模型提供一個範例,可以作為學習Tensorflow的一個經典示例。本文章對每行程式碼做了詳細註釋,以便對其他學習的朋友有所幫助,並歡迎讀者對不恰當處提出意見,以幫助完善。
CIFAR-10資料介紹
CIFAR-10資料集是一組大小為32x32的RGB影象,這些影象涵蓋了10個類別:飛機, 汽車, 鳥, 貓, 鹿, 狗, 青蛙, 馬, 船以及卡車。
資料集總共包含60000張圖片,每個類別6000張。其中,訓練集包含50000張圖片,測試集包含10000萬張圖片。資料集被分為5個訓練batch和一個測試batch,每個batch包含10000張圖片。從每個類別的圖片中隨機選出1000張圖片共10000張圖片作為測試的batch,將剩餘圖片按照隨機排序組成測試batch,每個訓練batch中各個類別的圖片數量不一定相等,某些類別可能會多一些,某些類別可能會少一些,但是所有訓練batch加一起,每個類別的圖片數量為5000。各個類別的圖片是互斥的,不存在一張圖片屬於兩個或兩個以上類別的情況。
資料集的資料型別分Python versions、Matlab versions和Binary version三種,本文程式碼使用Binary version,故主要介紹這個型別的資料格式。Binary version的資料下載解壓後包括data_batch_1.bin、data_batch_2.bin、data_batch_3.bin、data_batch_4.bin data_batch_5.bin和test_batch.bin五個檔案,每個檔案包含10000個圖片資料,每個圖片資料包含3073位元組,由於每個圖片資料之間沒有分隔符,所以每個檔案共30730000位元組。
每個圖片資料格式為:
- 第一個位元組為0-9的數字,為10個類別的標籤,對應的類別名稱在batches.meta.txt檔案中儲存,batches.meta.txt包含10行資料,類別標籤i對應第i行的名稱;
- 每張圖片為32*32=1024個畫素,第2-1025位元組為每個畫素的red值,第1026-2049位元組為每個畫素的green值,第2050-3073位元組為每個畫素的blue值。
- 由於資料是按照行主序排列,所以2-33為圖片的第一行畫素的red值,以此類推。
更多資訊請參考CIFAR-10 page
程式碼詳解
程式碼檔案包括:
檔案 | 作用 |
---|---|
cifar10_input.py | 讀取本地CIFAR-10的二進位制檔案格式的內容。 |
cifar10.py | 建立CIFAR-10的模型。 |
ccifar10_train.py | 讀在CPU或GPU上訓練CIFAR-10的模型。 |
cifar10_multi_gpu_train.py | 在多GPU上訓練CIFAR-10的模型。 |
cifar10_eval.py | 評估CIFAR-10模型的預測效能。 |
- cifar10_input.py
# 絕對引入,忽略目錄下相同命名的包,引用系統標準的包
from __future__ import absolute_import
# 匯入精確除法
from __future__ import division
# 使用python 3.x的print函式
from __future__ import print_function
import os
# xrange返回類,每次遍歷返回一個值,range返回列表,一次計算返回所有值,xrange效率要高些
from six.moves import xrange
import tensorflow as tf
IMAGE_SIZE = 24
# CIFAR10的資料分類數為10
NUM_CLASSES = 10
# CIFAR10的訓練集有50000個圖片
NUM_EXAMPLES_PER_EPOCH_FOR_TRAIN = 50000
# CIFAR10的測試集有10000個圖片
NUM_EXAMPLES_PER_EPOCH_FOR_EVAL = 10000
def read_cifar10(filename_queue):
# 建立空類,方便資料結構化儲存
class CIFAR10Record(object):
pass
result = CIFAR10Record()
# 1 for cifar-10;2 for cifar-100
label_bytes = 1
# cifar10的圖片包含32*32個畫素,每個畫素包含三個RGB值
result.height = 32
result.width = 32
result.depth = 3
# 計算每幅圖片特徵向量的位元組數
image_bytes = result.height * result.width * result.depth
# 計算每條記錄的位元組數=標籤位元組數+每幅圖片特徵向量的位元組數
record_bytes = label_bytes + image_bytes
# 讀取固定長度位元組數資訊,可以參看文章https://blog.csdn.net/fegang2002/article/details/83046584
reader = tf.FixedLengthRecordReader(record_bytes=record_bytes)
result.key, value = reader.read(filename_queue)
# CIFAR10資料通過Reader讀取後通過Record傳輸變為字串型別,既value為字串型別
# 但是要使用的話,需要還原為CIFAR10原始資料格式tf.uint8(8位無符號整形)型別,可以通過tf.decode_raw函式實現
record_bytes = tf.decode_raw(value, tf.uint8)
# 從讀取的資料記錄中截取出標籤值
result.label = tf.cast(tf.strided_slice(record_bytes, [0], [label_bytes]), tf.int32)
# 從讀取的資料記錄中截取出圖片資料,並且轉換為【深,高,寬】的形狀[3,32,32]
depth_major = tf.reshape(
tf.strided_slice(record_bytes, [label_bytes], [label_bytes + image_bytes]),
[result.depth, result.height, result.width],
)
# 轉換depth_major的維度,將第一個維度放在最後,既更新為【高,寬,深】的形狀[32,32,3]
result.uint8image = tf.transpose(depth_major, [1, 2, 0])
return result
def _generate_image_and_label_batch(
image, label, min_queue_examples, batch_size, shuffle
):
# 設定入列的執行緒?
num_preprocess_threads = 16
if shuffle:
# 把輸入的圖片畫素資料和標籤資料隨機打亂後,按照批次生成輸出的圖片畫素資料和標籤資料
images, label_batch = tf.train.shuffle_batch(
[image, label],
batch_size=batch_size,
num_threads=num_preprocess_threads,
capacity=min_queue_examples + 3 * batch_size,
# 出列後,佇列中要保持的最小元素數?
min_after_dequeue=min_queue_examples,
)
else:
# 把輸入的圖片畫素資料和標籤資料按照原順序、按照批次生成輸出的圖片畫素資料和標籤資料
images, label_batch = tf.train.batch(
[image, label],
batch_size=batch_size,
num_threads=num_preprocess_threads,
capacity=min_queue_examples + 3 * batch_size,
)
# 將輸入的影象資料記錄到快取中,為後續展示準備
tf.summary.image("image", image)
return images, tf.reshape(label_batch, [batch_size])
def destorted_inputs(data_dir, batch_size):
# 設定CIFAR10資料檔案的位置和名稱
filename = [os.path.join(data_dir, "data_batch_%d.bin" % i) for i in xrange(1, 6)]
# 如果設定的CIFAR10資料檔案不存在,報錯退出
for f in filename:
if not tf.gfile.Exists(f):
raise ValueError("Failed to find file: " + f)
# 將filename中包含的檔案打包生成一個先入先出佇列(FIFOQueue)
# 並且在計算圖的QUEUE_RUNNER集合中新增一個QueueRunner(QueueRunner包含一個佇列的一系列的入列操作)
# 預設shuffle=True時,會對檔名進行隨機打亂處理
filename_queue = tf.train.string_input_producer(filename)
with tf.name_scope("data_augmentation"):
# 呼叫read_cifar10函式,將佇列filename_queue進行處理,返回值賦予read_input
read_input = read_cifar10(filename_queue)
# 將圖片畫素資料read_input.uint8image轉化為tf.float32型別,賦予reshaped_image
reshaped_image = tf.cast(read_input.uint8image, tf.float32)
height = IMAGE_SIZE
width = IMAGE_SIZE
# 對圖片進行隨機切割,轉化尺寸為[24,24,3]
distorted_image = tf.random_crop(reshaped_image, [height, width, 3])
# 對切割後圖片沿width方向隨機翻轉,有可能的結果就是從左往右,從左往左等於沒有翻轉
distorted_image = tf.image.random_flip_left_right(distorted_image)
# 對切割翻轉後的圖片隨機調整亮度,實際上是在原圖的基礎上隨機加上一個值(如果加上的是正值則增亮否則增暗),
# 此值取自[-max_delta,max_delta),要求max_delta>=0。
distorted_image = tf.image.random_brightness(distorted_image, max_delta=63)
# 對切割、翻轉和隨機調整亮度的圖片隨機調整對比度,對比度調整值取自[lower,upper]
distorted_image = tf.image.random_contrast(
distorted_image, lower=0.2, upper=1.8
)
# 對切割、翻轉、隨機調整亮度和對比度的圖片進行標準化處理,將RGB畫素的值限定在一個範圍,可以加速神經網路的訓練
# 標準化處理可以使得不同的特徵具有相同的尺度(Scale)。這樣,在使用梯度下降法學習引數的時候,不同特徵對引數的影響程度就一樣了。
float_image = tf.image.per_image_standardization(distorted_image)
# 設定切割、翻轉、隨機調整亮度、對比度和標準化後的圖片資料設定尺寸為[24,24,3]
float_image.set_shape([height, width, 3])
# 設定標籤資料的形狀尺寸為[1]
read_input.label.set_shape([1])
# 設定佇列中最少樣本數為每輪樣本的40%?
min_fraction_of_examples_in_queue = 0.4
min_queue_examples = int(
NUM_EXAMPLES_PER_EPOCH_FOR_TRAIN * min_fraction_of_examples_in_queue
)
print(
"Filling queue with %d CIFAR images before starting to train. "
"This will take a few minutes." % min_queue_examples
)
return _generate_image_and_label_batch(
float_image, read_input.label, min_queue_examples, batch_size, shuffle=True
)
def inputs(eval_data, data_dir, batch_size):
if not eval_data:
# 如果不是測試資料,就從訓練資料檔案中讀取資料
filenames = [
os.path.join(data_dir, "data_batch_%d.bin" % i) for i in xrange(1, 6)
]
# 設定每輪樣本數為訓練資料每輪樣本數
num_examples_per_epoch = NUM_EXAMPLES_PER_EPOCH_FOR_TRAIN
else:
# 如果是測試資料,就從測試資料檔案中讀取資料
filenames = [os.path.join(data_dir, "test_batch.bin")]
# 設定每輪樣本數為測試資料每輪樣本數
num_examples_per_epoch = NUM_EXAMPLES_PER_EPOCH_FOR_EVAL
# 檢驗檔案是否存在
for f in filenames:
if not tf.gfile.Exists(f):
raise ValueError("Failed to find file:" + f)
with tf.name_scope("input"):
# 將filename中包含的檔案打包生成一個先入先出佇列
filename_queue = tf.train.string_input_producer(filenames)
# 呼叫read_cifar10函式,將資料檔案處理成結構化的類物件CIFAR10Record,並返回給read_input
read_input = read_cifar10(filename_queue=filename_queue)
# 將read_input中的圖片畫素資料轉換為tf.float32型別以便後續處理
reshaped_image = tf.cast(read_input.uint8image, tf.float32)
height = IMAGE_SIZE
width = IMAGE_SIZE
# 將reshaped_image圖片資料修剪為寬24,高24的尺寸
resized_image = tf.image.resize_image_with_crop_or_pad(
reshaped_image, height, width
)
# 標準化處理resized_image圖片資料返回給float_image
float_image = tf.image.per_image_standardization(resized_image)
# 設定float_image尺寸為[24,24,3]
float_image.set_shape([height, width, 3])
# 設定標籤資料尺寸為[1]
read_input.label.set_shape([1])
# 設定佇列中最少樣本數為每輪樣本的40%?
min_fraction_of_examples_in_queue = 0.4
min_queue_examples = int(
num_examples_per_epoch * min_fraction_of_examples_in_queue
)
# 呼叫_generate_image_and_label_batch處理float_image資料
return _generate_image_and_label_batch(
float_image,
read_input.label,
min_queue_examples=min_queue_examples,
batch_size=batch_size,
shuffle=False,
)
from __future__ import absolute_import
from __future__ import division
from __future__ import print_function
import os
import re
import sys
import tarfile
from six.moves import urllib
import tensorflow as tf
import cifar10_input
# 建立命令列引數
FLAGS = tf.app.flags.FLAGS
tf.app.flags.DEFINE_integer(
"batch_size", 128, """Number of images to process in a batch."""
)
tf.app.flags.DEFINE_string(
"data_dir",
os.path.join(os.getcwd(), "cifar10_train_data"),
"""Path to the CIFAR-10 data directory.""",
)
tf.app.flags.DEFINE_boolean("use_fp16", False, """Train the model using fp16.""")
# 設定全域性變數
IMAGE_SIZE = cifar10_input.IMAGE_SIZE
NUM_CLASSES = cifar10_input.NUM_CLASSES
NUM_EXAMPLES_PER_EPOCH_FOR_TRAIN = cifar10_input.NUM_EXAMPLES_PER_EPOCH_FOR_TRAIN
NUM_EXAMPLES_PER_EPOCH_FOR_EVAL = cifar10_input.NUM_EXAMPLES_PER_EPOCH_FOR_EVAL
MOVING_AVERAGE_DECAY = 0.9999 # The decay to use for the moving average.
NUM_EPOCHS_PER_DECAY = 350.0 # Epochs after which learning rate decays.
LEARNING_RATE_DECAY_FACTOR = 0.1 # Learning rate decay factor.
INITIAL_LEARNING_RATE = 0.1 # Initial learning rate.
TOWER_NAME = "tower"
DATA_URL = "https://www.cs.toronto.edu/~kriz/cifar-10-binary.tar.gz"
def _activation_summary(x):
# 設定tensor_name,如果輸入的tensor的名稱裡,包含'tower_'+數字+'/'的字串,將其替換成''
tensor_name = re.sub("%s_[0-9]*/" % TOWER_NAME, "", x.op.name)
# 為輸入的tensor建立直方圖,節點命名為tensor_name + "/activations",可以在tensorboard中顯示
tf.summary.histogram(tensor_name + "/activations", x)
# 因為relu啟用函式有可能造成大量引數為0,所以使用tf.nn.zero_fraction計算輸入tensor x中0元素個數在所有元素個數中的比例
# 在tensorboar中列印,節點命名為tensor_name + "/sparsity"
# 參考https://blog.csdn.net/fegang2002/article/details/83539768
tf.summary.scalar(tensor_name + "/sparsity", tf.nn.zero_fraction(x))
def _variable_on_cpu(name, shape, initializer):
# 建立變數執行在CPU中
with tf.device("/cpu:0"):
# 根據引數FLAGS.use_fp16,設定變數的型別
dtype = tf.float16 if FLAGS.use_fp16 else tf.float32
# 初始化變數
var = tf.get_variable(
name=name, shape=shape, initializer=initializer, dtype=dtype
)
return var
def _variable_with_weight_decay(name, shape, stddev, wd):
# 根據引數FLAGS.use_fp16設定確定變數的型別
dtype = tf.float16 if FLAGS.use_fp16 else tf.float32
# 使用函式_variable_on_cpu建立變數,使用tf.truncated_normal隨機生成資料
# 在tf.truncated_normal中如果x的取值在區間(μ-2σ,μ+2σ)之外則重新進行選擇
# 橫軸區間(μ-2σ,μ+2σ)內的面積為95.449974%,這樣保證了生成的值都在均值附近。
var = _variable_on_cpu(
name=name,
shape=shape,
initializer=tf.truncated_normal(stddev=stddev, dtype=dtype),
)
if wd is not None:
# 如果wd引數有值的話,將張量var的各個元素的平方和除以2,
# 然後與wd點乘,命名為weight_loss
weight_decay = tf.multiply(tf.nn.l2_loss(var), wd, name="weight_loss")
# 將weight_decay加入losses集合
tf.add_to_collection("losses", weight_decay)
return var
def distorted_inputs():
# 如果FLAGS.data_dir為空,報錯提示
if not FLAGS.data_dir:
raise ValueError("Please supply a data_dir")
# cifar10的資料解壓後儲存在data_dir
data_dir = os.path.join(FLAGS.data_dir, "cifar-10-batches-bin")
# 對cifar10的資料做切割、翻轉、隨機調整亮度、對比度和標準化處理,並按照FLAGS.batch_size引數生成批次資料
images, labels = cifar10_input.distorted_inputs(
data_dir=data_dir, batch_size=FLAGS.batch_size
)
# 如果FLAGS.use_fp16設定為真,將images,labels的型別轉換為tf.float16
if FLAGS.use_fp16:
images = tf.cast(images, tf.float16)
labels = tf.cast(labels, tf.float16)
return images, labels
def inputs(eval_data):
# 如果FLAGS.data_dir為空,報錯提示
if not FLAGS.data_dir:
raise ValueError("Please supply a data_dir")
# cifar10的資料解壓後儲存在data_dir
data_dir = os.path.join(FLAGS.data_dir, "cifar-10-batches-bin")
# 呼叫cifar10_input.inputs函式對cifar10資料進行處理
images, labels = cifar10_input.inputs(
eval_data=eval_data, data_dir=data_dir, batch_size=FLAGS.batch_size
)
# 如果FLAGS.use_fp16設定為真,將images,labels的型別轉換為tf.float16
if FLAGS.use_fp16:
images = tf.cast(images, tf.float16)
labels = tf.cast(labels, tf.float16)
return images, labels
def inference(images):
# 定義卷積層,變數的作用域為conv1
with tf.variable_scope("conv1") as scope:
# 建立變數kernel作為卷積核,命名為'weights',
# 卷積核高為5,寬為5,輸入通道也即是圖片的通道為3,輸出通道也即是卷積核的數量為64
# 按照標準差為5e-2的正態分佈隨機生成資料,拋棄均值左右2倍標準差外的資料
# 不設定調整引數wd
kernel = _variable_with_weight_decay(
"weights", shape=[5, 5, 3, 64], stddev=5e-2, wd=None
)
# 建立卷積層,輸入為images[image_batch,image_height,image_width,image_channel]
# 卷積核為kernel[kernel_height,kernel_width,image_channel,kernel_channel],kernel_channel為卷積核的數量
# 步長strides為[1, 1, 1, 1],為卷積核分別在images的四個維度[image_batch,image_height,image_width,image_channel]上的步長,
# padding: string型別,值為“SAME” 和 “VALID”,表示的是卷積的形式,是否考慮邊界。
# "SAME"是考慮邊界,不足的時候用0去填充周圍,"VALID"則不考慮
conv = tf.nn.conv2d(images, kernel, [1, 1, 1, 1], padding="SAME")
# 設定偏置,命名為'biases',長度為64的一維向量,所有元素都為0
biases = _variable_on_cpu("biases", [64], tf.constant_initializer(0.0))
# 將卷積層和偏置加到一起
pre_activation = tf.nn.bias_add(conv, biases)
# 卷積層和偏置加在一起後新增relu的啟用函式,得到第一層卷積,命名為'conv1',relu啟用函式可能會造成大量引數為0
conv1 = tf.nn.relu(pre_activation, name=scope.name)
# 在tensorboad中列印conv1的分佈和0元素佔比,0元素佔比可以反映此層對於訓練的作用,佔比高作用小,佔比低作用大
_activation_summary(conv1)
# 設定最大池化層對conv1層做最大池化處理,命名為"pool1"
# 池化視窗的大小設定為[1, 3, 3, 1],分別對應conv1的四個維度[batch,height,width,channel]
# 步長為[1, 2, 2, 1],分別對應conv1的四個維度[batch,height,width,channel]
# padding設定"SAME",當滑動到邊界尺寸不足時用'0'填充
pool1 = tf.nn.max_pool(
conv1,
ksize=[1, 3, 3, 1],
strides=[1, 2, 2, 1],
padding="SAME",
name="pool1",
)
# 對池化後的結果pool1做區域性相應標準化處理,類似於dropout,防止過擬合
norm1 = tf.nn.lrn(
pool1, 4, bias=1.0, alpha=0.001 / 9.0, beta=0.75, name="norm1"
)
# 定義卷積層,變數的作用域為conv2
with tf.variable_scope("conv2") as scope:
# 建立變數kernel作為卷積核,命名為'weights',
# 卷積核高為5,寬為5,輸入通道也即是圖片的通道為64,輸出通道也即是卷積核的數量為64
# 按照標準差為5e-2的正態分佈隨機生成資料,拋棄均值左右2倍標準差外的資料
# 不設定調整引數wd
kernel = _variable_with_weight_decay(
"weights", shape=[5, 5, 64, 64], stddev=5e-2, wd=None
)
# 建立卷積層,輸入為norm1,卷積核為kernel,步長strides為[1, 1, 1, 1]
# padding:"SAME"是考慮邊界,不足的時候用0去填充周圍
conv = tf.nn.conv2d(norm1, kernel, [1, 1, 1, 1], padding="SAME")
# 設定偏置,命名為'biases',長度為64的一維向量,所有元素都為0.1
biases = _variable_on_cpu("biases", [64], tf.constant_initializer(0.1))
# 將卷積層和偏置加到一起
pre_activation = tf.nn.bias_add(conv, biases)
# 卷積層和偏置加在一起後新增relu的啟用函式,得到第二層卷積,命名為'conv2',relu啟用函式可能會造成大量引數為0
conv2 = tf.nn.relu(pre_activation, name=scope.name)
# 在tensorboad中列印conv2的分佈和0元素佔比,0元素佔比可以反映此層對於訓練的作用,佔比高作用小,佔比低作用大
_activation_summary(conv2)
# 對卷積後的結果conv2做區域性相應標準化處理,類似於dropout,防止過擬合
norm2 = tf.nn.lrn(conv2, 4, bias=1.0, alpha=0.001 / 9.0, beta=0.75, name="norm2")
# 設定最大池化層對norm2層做最大池化處理,命名為"pool2"
# 池化視窗的大小設定為[1, 3, 3, 1],分別對應pool2的四個維度[batch,height,width,channel]
# 步長為[1, 2, 2, 1],分別對應pool2的四個維度[batch,height,width,channel]
# padding設定"SAME",當滑動到邊界尺寸不足時用'0'填充
pool2 = tf.nn.max_pool(
norm2, ksize=[1, 3, 3, 1], strides=[1, 2, 2, 1], padding="SAME", name="pool2"
)
# 定義全連線層,變數的作用域為local3
with tf.variable_scope("local3") as scope:
# Move everything into depth so we can perform a single matrix multiply.
# 將pool2轉化為二維張量,第一維的尺寸為image的第一維的尺寸,其餘的元素自動換算為第二維的尺寸,返回張量reshape
reshape = tf.reshape(pool2, [images.get_shape().as_list()[0], -1])
# 獲取reshape張量的第二維的尺寸
dim = reshape.get_shape()[1].value
# 建立權重變數weights為二維張量,第一維的尺寸為張量reshape的第二維尺寸,第二維的尺寸為384
# 按照標準差為0.04的正態分佈隨機生成資料,拋棄均值左右2倍標準差外的資料
# 設定調整引數wd=0.004
weights = _variable_with_weight_decay(
"weights", shape=[dim, 384], stddev=0.04, wd=0.004
)
# 設定偏置,命名為'biases',長度為64的一維向量,所有元素都為0.1
biases = _variable_on_cpu("biases", [384], tf.constant_initializer(0.1))
# 設定local3為reshape和weights相乘再與biases相加,再新增啟用函式relu,relu啟用函式可能會造成大量引數為0
local3 = tf.nn.relu(tf.matmul(reshape, weights) + biases, name=scope.name)
# 在tensorboad中列印local3的分佈和0元素佔比,0元素佔比可以反映此層對於訓練的作用,佔比高作用小,佔比低作用大
_activation_summary(local3)
# 定義全連線層,變數的作用域為local4
with tf.variable_scope("local4") as scope:
# 建立權重變數weights為二維張量,第一維的尺寸為384,第二維的尺寸為192
# 按照標準差為0.04的正態分佈隨機生成資料,拋棄均值左右2倍標準差外的資料
# 設定調整引數wd=0.004
weights = _variable_with_weight_decay(
"weights", shape=[384, 192], stddev=0.04, wd=0.004
)
# 設定偏置,命名為'biases',長度為192的一維向量,所有元素都為0.1
biases = _variable_on_cpu("biases", [192], tf.constant_initializer(0.1))
# 設定local4為local3和weights相乘再與biases相加,再新增啟用函式relu,relu啟用函式可能會造成大量引數為0
local4 = tf.nn.relu(tf.matmul(local3, weights) + biases, name=scope.name)
# 在tensorboad中列印local4的分佈和0元素佔比,0元素佔比可以反映此層對於訓練的作用,佔比高作用小,佔比低作用大
_activation_summary(local4)
# 定義全連線層,變數的作用域為softmax_linear
with tf.variable_scope("softmax_linear") as scope:
# 建立權重變數weights為二維張量,第一維的尺寸為192,第二維的尺寸為圖片的分類數
# 按照標準差為1/192.0的正態分佈隨機生成資料,拋棄均值左右2倍標準差外的資料
# 不設定調整引數wd
weights = _variable_with_weight_decay(
"weights", [192, NUM_CLASSES], stddev=1 / 192.0, wd=None
)
# 設定偏置,命名為'biases',長度為圖片分類數的一維向量,所有元素都為0
biases = _variable_on_cpu("biases", [NUM_CLASSES], tf.constant_initializer(0.0))
# 設定softmax_linear為local4和weights相乘再與biases相加
softmax_linear = tf.add(tf.matmul(local4, weights), biases, name=scope.name)
# 在tensorboad中列印softmax_linear的分佈和0元素佔比,0元素佔比可以反映此層對於訓練的作用,佔比高作用小,佔比低作用大
_activation_summary(softmax_linear)
# 張量softmax_linear作為函式輸出
return softmax_linear
def loss(logits, labels):
# 將labels的型別轉化為tf.int64
labels = tf.cast(labels, tf.int64)
# 求logits和labels之間的交叉熵,命名"cross_entropy_per_example"
# tf.nn.sparse_softmax_cross_entropy_with_logits()比tf.nn.softmax_cross_entropy_with_logits多了一步將labels稀疏化
# 此例用非稀疏的標籤,所以用tf.nn.sparse_softmax_cross_entropy_with_logits()
cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(
labels=labels, logits=logits, name="cross_entropy_per_example"
)
# 對logits和labels之間的交叉熵cross_entropy求均值返回給cross_entropy_mean,命名"cross_entropy"
cross_entropy_mean = tf.reduce_mean(cross_entropy, name="cross_entropy")
# 將cross_entropy_mean存入losses集合
tf.add_to_collection("losses", cross_entropy_mean)
# 將集合中的元素相加作為函式的返回值
return tf.add_n(tf.get_collection("losses"), name="total_loss")
def _add_loss_summaries(total_loss):
# 設定移動平均模型,設定引數decay=0.9
# 參考https://blog.csdn.net/qq_14845119/article/details/78767544
loss_averages = tf.train.ExponentialMovingAverage(0.9, name="avg")
# 從集合Losses中取出損失函式的值
losses = tf.get_collection("losses")
# 將從集合Losses中取出損失函式的值losses和輸入的total_loss作和,然後做移動平均,作為函式的返回值
loss_averages_op = loss_averages.apply(losses + [total_loss])
for l in losses + [total_loss]:
# Name each loss as '(raw)' and name the moving average version of the loss
# as the original loss name.
# 在tensorboard中列印所有的lose的值
tf.summary.scalar(l.op.name + " (raw)", l)
# 在tensorboard中列印所有的lose移動平均之後的值?
tf.summary.scalar(l.op.name, loss_averages.average(l))
return loss_averages_op
def train(total_loss, global_step):
# 設定每個epoch訓練的batch數
num_batches_per_epoch = NUM_EXAMPLES_PER_EPOCH_FOR_TRAIN / FLAGS.batch_size
# 設定每個epoch中learning rate的衰減次數
decay_steps = int(num_batches_per_epoch * NUM_EPOCHS_PER_DECAY)
# 初始化學習率INITIAL_LEARNING_RATE後,訓練過程中按照LEARNING_RATE_DECAY_FACTOR比例衰減學習率,以免學習率過大造成震盪
# staircase為True,每decay_steps步數後,更新learning_rate=learning_rate*(decay_rate**decay_steps)
# staircase為False,每一步更新learning_rate=learning_rate*decay_rate
# global_step為學習步數
lr = tf.train.exponential_decay(
INITIAL_LEARNING_RATE,
global_step,
decay_steps,
LEARNING_RATE_DECAY_FACTOR,
staircase=True,
)
# 在tensorboard中列印Learning rate
tf.summary.scalar("learning_rate", lr)
# 將從集合Losses中取出損失函式的值losses和輸入的total_loss作和,然後做移動平均
loss_averages_op = _add_loss_summaries(total_loss)
# 上下文管理器,控制計算流圖,指定計算順序,優先執行loss_averages_op
with tf.control_dependencies([loss_averages_op]):
# 設定梯度下降優化演算法,學習率lr為隨著學習的步數逐漸衰減
opt = tf.train.GradientDescentOptimizer(lr)
# 計算total_loss的梯度
grads = opt.compute_gradients(total_loss)
# 執行梯度下降,執行之前根據上下文管理器先操作loss_averages_op對total_loss做移動平均
# 然後再對total_loss做梯度下降優化
apply_gradient_op = opt.apply_gradients(grads, global_step=global_step)
# 在tensorboard中列印所有的可訓練變數
for var in tf.trainable_variables():
tf.summary.histogram(var.op.name, var)
# 在tensorboard中列印所有梯度優化過程中更新的梯度
for grad, var in grads:
if grad is not None:
tf.summary.histogram(var.op.name + "/gradients", grad)
# 設定移動平均模型,設定引數decay=MOVING_AVERAGE_DECAY,num_updates=global_step?
variable_averages = tf.train.ExponentialMovingAverage(
MOVING_AVERAGE_DECAY, global_step
)
# 上下文管理器,控制計算流圖,指定計算順序,優先執行apply_gradient_op
with tf.control_dependencies([apply_gradient_op]):
# 先執行apply_gradient_op,更新tf.trainable_variables()
# 然後再對tf.trainable_variables()做移動平均
variables_averages_op = variable_averages.apply(tf.trainable_variables())
# 返回根據梯度下降優化且經過移動平均的引數變數
return variables_averages_op
def maybe_download_and_extract():
# 下載cifar10的樣本資料,並解壓
# 設定cifar10樣本資料儲存的資料夾,如果資料夾不存在,系統自動建立
dest_directory = FLAGS.data_dir
if not os.path.exists(dest_directory):
os.makedirs(dest_directory)
# 將cifar10的樣本資料的下載連結DATA_URL按照'/'擷取後取最後一個元素,其為檔名稱
filename = DATA_URL.split("/")[-1]
# 組合cifar10的樣本資料的完整路徑
filepath = os.path.join(dest_directory, filename)
if not os.path.exists(filepath):
# 如果cifar10的樣本資料在系統中不存在,下載
# 定義_progress回撥函式,顯示下載的進度
def _progress(count, block_size, total_size):
# 列印下載進度
sys.stdout.write(
"\r>> Downloading %s %.1f%%"
% (filename, float(count * block_size) / float(total_size) * 100.0)
)
# linux系統下系統重新整理輸出,每秒輸出一個結果,windows系統不需要,總是每秒輸出一個結果
sys.stdout.flush()
# 從DATA_URL下載cifar10的樣本資料,儲存為filepath
# 使用回到函式_progress顯示下載進度
# urlretrieve每下載一部分資料塊後將下載的資料塊數量count、資料庫大小block_size和
# 下載檔案的總大小total_size傳給回撥函式_progress處理,列印下載進度
filepath, _ = urllib.request.urlretrieve(DATA_URL, filepath, _progress)
print()
# 獲取cifar10樣本資料的系統狀態資訊
statinfo = os.stat(filepath)
# 列印cifar10樣本資料下載成功資訊,顯示下載後的檔案路徑、名稱和大小
print("Successfully downloaded", filename, statinfo.st_size, "bytes.")
# cifar10樣本資料解壓後會生成資料夾cifar-10-batches-bin
extracted_dir_path = os.path.join(dest_directory, "cifar-10-batches-bin")
if not os.path.exists(extracted_dir_path):
# 如果extracted_dir_path在系統中不存在,說明cifar10樣本資料還未解壓
# 將cifar10樣本資料解壓後儲存到dest_directory
tarfile.open(filepath, "r:gz").extractall(dest_directory)
- cifar_train.py
from __future__ import absolute_import
from __future__ import division
from __future__ import print_function
from datetime import datetime
import time
import tensorflow as tf
import cifar10
# 設定輸入引數
FLAGS = tf.app.flags.FLAGS
tf.app.flags.DEFINE_string(
"train_dir",
"/cifar10_train_check",
"""Directory where to write event logs and checkpoint.""",
)
tf.app.flags.DEFINE_integer("max_steps", 100000, """Number of batches to run.""")
tf.app.flags.DEFINE_boolean(
"log_device_placement", False, """Whether to log device placement."""
)
tf.app.flags.DEFINE_integer(
"log_frequency", 10, """How often to log results to the console."""
)
def train():
# 建立上下文管理器,使用預設計算圖
with tf.Graph().as_default():
# 從預設計算圖中建立並返回glob step變數,初始化後為0
global_step = tf.train.get_or_create_global_step()
# 設定執行在cpu下
with tf.device("/cup:0"):
# 對cifar10的資料做切割、翻轉、隨機調整亮度、對比度和標準化處理,並按照FLAGS.batch_size引數生成批次資料
images, labels = cifar10.distorted_inputs()
# 通過cifar10.inference定義的深層學習框架(2層卷積,3層全連結)對cifar10.distorted_inputs()處理的圖片資料進行學習
# 得到各個分類的特徵值
logits = cifar10.inference(images)
# 將各個分類的特徵值和標籤資料通過cifar10.loss得到損失值
loss = cifar10.loss(logits, labels)
# 通過cifar10.train對損失值進行訓練,訓練的總步數為global_step
train_op = cifar10.train(loss, global_step)
# 建立類_LoggerHook,是繼承tf.train.SessionRunHook的子類,生成鉤子程式,用來監視訓練過程
class _LoggerHook(tf.train.SessionRunHook):
# 建立會話之前呼叫,呼叫begin()時,default graph會被建立,
def begin(self):
# 初始化訓練的起始步數
self._step = -1
# 獲取當前時間的時間戳(1970紀元後經過的浮點秒數)初始化會話的起始時間
self._start_time = time.time()
# 每個sess.run()執行之前呼叫,返回tf.train.SessRunArgs(op/tensor),在即將執行的會話中加入op/tensor loss
# 加入的loss會和sess.run()中已定義的op/tensor合併,然後一起執行
def before_run(self, run_context):
# 疊加訓練的步數,第一次訓練從步數0開始
self._step += 1
# 返回SessionRunArgs物件,作為即將執行的會話的引數,將loss新增到會話中
return tf.train.SessionRunArgs(loss)
# 每個sess.run()執行之後呼叫,run_values是befor_run()中的op/tensor loss的返回值
# 可以呼叫run_context.qeruest_stop()用於停止迭代,sess.run丟擲任何異常after_run不會被呼叫
def after_run(
# tf.train.SessRunContext提供會話執行所需的資訊,tf.train.SessRunValues儲存會話執行的結果
self, run_context, run_values # pylint: disable=unused-argument
):
# 判斷迭代步數是否為FLAGS.log_frequency=10的整數倍
if self._step % FLAGS.log_frequency == 0:
# 獲取當前時間的時間戳(1970紀元後經過的浮點秒數)
current_time = time.time()
# 獲取每10個會話執行的持續時間
duration = current_time - self._start_time
# 更新會話的起始時間
self._start_time = current_time
# 獲取before_run中加入的操作loss的返回值
loss_value = run_values.results
# 計算每秒鐘處理的樣本數
examples_per_sec = FLAGS.log_frequency * FLAGS.batch_size / duration
# 計算每個會話的執行時間,單位為秒
sec_per_batch = float(duration / FLAGS.log_frequency)
# 列印當前系統時間,當前步數下的loss的值(標示:每秒處理的樣本數和每個批次樣本處理所需要的時間)
format_str = (
"%s: step %d, loss = %.2f (%.1f examples/sec; %.3f sec/batch)"
)
print(
format_str
% (
datetime.now(),
self._step,
loss_value,
examples_per_sec,
sec_per_batch,
)
)
with tf.train.MonitoredTrainingSession(
# 設定恢復變數的檔案路徑為FLAGS.train_dir
checkpoint_dir=FLAGS.train_dir,
hooks=[
# 設定HOOK程式在FLAGS.max_steps=100000後停止
tf.train.StopAtStepHook(last_step=FLAGS.max_steps),
# 設定如果loss的值為Nan,停止訓練
tf.train.NanTensorHook(loss),
# 呼叫自己定義的_LoggerHook() HOOK類
_LoggerHook(),
],
# 對會話進行設定,log_device_placement為True時,會在終端打印出各項操作是在哪個裝置上執行的
config=tf.ConfigProto(log_device_placement=FLAGS.log_device_placement),
) as mon_sess:
# 建立迴圈在沒有符合程式退出條件的情況下,執行train_op訓練資料
while not mon_sess.should_stop():
mon_sess.run(train_op)
def main(argv=None):
# 下載並解壓cifar10的資料,防止沒有資料可訓練
cifar10.maybe_download_and_extract()
# 建立目錄儲存Log和checkpoint檔案,如果目錄存在,刪除重新建立,以保證儲存最新的訓練資訊
if tf.gfile.Exists(FLAGS.train_dir):
tf.gfile.DeleteRecursively(FLAGS.train_dir)
tf.gfile.MakeDirs(FLAGS.train_dir)
# 訓練資料
train()
if __name__ == "__main__":
# 處理FLAGS引數解析,執行main()函式
tf.app.run()
- cifar_eval.py
from __future__ import absolute_import
from __future__ import division
from __future__ import print_function
from datetime import datetime
import math
import time
import numpy as np
import tensorflow as tf
import cifar10
# 定義引數變數
FLAGS = tf.app.flags.FLAGS
tf.app.flags.DEFINE_string('eval_dir', '/cifar10_eval',
"""Directory where to write event logs.""")
tf.app.flags.DEFINE_string('eval_data', 'test',
"""Either 'test' or 'train_eval'.""")
tf.app.flags.DEFINE_string('checkpoint_dir', '/cifar10_train_check',
"""Directory where to read model checkpoints.""")
tf.app.flags.DEFINE_integer('eval_interval_secs', 60 * 5,
"""How often to run the eval.""")
tf.app.flags.DEFINE_integer('num_examples', 10000,
"""Number of examples to run.""")
tf.app.flags.DEFINE_boolean('run_once', False,
"""Whether to run eval only once.""")
def eval_once(saver,summary_writer,top_k_op,summary_op):
# 建立上下文管理器,定義會話sess
with tf.Session() as sess:
# 獲取儲存的模型,模型路徑由FLAGS.checkpoint_dir定義
ckpt=tf.train.get_checkpoint_state(FLAGS.checkpoint_dir)
# 如果ckpt和ckpt.model_checkpoint_path非空
if ckpt and ckpt.model_checkpoint_path:
# 從chekpoint中恢復引數
saver.restore(sess, ckpt.model_checkpoint_path)
# 獲取訓練的總步數,模型檔案的名稱為'model.ckpt-總步數'
global_step=ckpt.model_checkpoint_path.split('/')[-1].split('-')[-1]
else:
# 如果ckpt和ckpt.model_checkpoint_path為空,列印提示,退出函式
print('No checkpoint file found')
return
# 開啟一個多執行緒協調器,協調執行緒間的關係
coord=tf.train.Coordinator()
try:
# 定義陣列儲存執行緒
threads=[]
# 所有佇列管理器被預設加入圖的tf.GraphKeys.QUEUE_RUNNERS集合中
for qr in tf.get_collection(tf.GraphKeys.QUEUE_RUNNERS):
# 佇列建立執行緒來做入列操作,並將建立的執行緒存入threads陣列
threads.extend(qr.create_threads(sess=sess,coord=coord,daemon=True,start=True))
# 總樣本數除以每個批次的樣本數量向上取整,獲取總的批次數量也即是迭代次數
num_iter=int(math.ceil(FLAGS.num_examples/FLAGS.batch_size))
# 預測結果的真值數量初始化為0
true_count=0
# 迭代次數乘以每個批次的樣本數量得到總的樣本數量
total_sample_count=num_iter*FLAGS.batch_size
# 迴圈的步數初始化為0
step=0
while step<num_iter and not coord.should_stop():
# 呼叫top_k_op=tf.nn.in_top_k執行預測,返回bool值
predictions=sess.run([top_k_op])
# 對預測結果中的真值進行累加
true_count+=np.sum(predictions)
# 迴圈的步數自動加1
step+=1
# 預測真值的數量除以總的樣本數量得到預測的精度
precision=true_count/total_sample_count
# 列印系統當前的時間和預測的精度
print('%s: precision @ 1 = %.3f' % (datetime.now(),predictions))
# 定義tf.Summary()的物件,將訓練過程中的資訊,包括預測資訊寫入到FLAGS.eval_dir下的圖檔案,支援後續tensorboard列印
summary=tf.Summary()
summary.ParseFromString(sess.run(summary_op))
summary.value.add(tag='Precision @ 1', simple_value=predictions)
summary_writer.add_summary(summary,global_step)
except Exception as e:
# 如果程式執行出錯,多執行緒協調器coord停止其他執行緒,並把錯誤報告給coord
coord.request_stop(e)
# 多執行緒協調器coord停止其他執行緒
coord.request_stop()
# 多執行緒協調器coord等待所有的執行緒終止,並給出10秒的寬限期
# 如果超過10秒還有執行緒存在且ignore_live_threads引數為False,會報RuntimeError
# 如果request_stop()被傳入Exception資訊,則會替代RuntimeError,報Exception資訊
coord.join(threads,stop_grace_period_secs=10)
def evaluate():
# 使用系統預設圖作為計算圖
with tf.Graph().as_default() as g:
# 設定變數eval_data為'test'
eval_data=FLAGS.eval_data=='test'
# 呼叫cifar10.inputs函式對測試資料進行處理,得到評估使用的影象和標籤資料
images,labels=cifar10.inputs(eval_data=eval_data)
# 使用cifar10.inference函式構建的深度學習模型對測試資料進行評估
# 返回預測的分類資料logits,logits為預測為各個類別的概率
logits=cifar10.inference(images)
# tf.nn.in_top_k按照logtis中的元素從大到小的順序對元素座標排序,再按照labels中的元素從大到小的順序對座標排序,
# 然後取第一位進行比較,如果相同返回true,否則返回false
# logits中的元素為預測的各個類別的概率,最大概率也就是預測的類別,labels中正確的類別對應的元素為1,否則為0
# 所以logits最大元素的座標如果和labels中最大元素的座標一致,說明預測正確
top_k_op=tf.nn.in_top_k(logits,labels,1)
# 設定移動平均模型,設定引數decay=cifar10.MOVING_AVERAGE_DECA
# 因為訓練的時候使用了移動平均模型,評估的時候也需要使用
variable_averages=tf.train.ExponentialMovingAverage(cifar10.MOVING_AVERAGE_DECAY)
# 使用variables_to_restore函式在載入模型的時候將影子變數直接對映到變數的本身,
# 所以在獲取變數的滑動平均值的時候只需要獲取到變數的本身值而不需要去獲取影子變數
# 參考文章https://blog.csdn.net/sinat_29957455/article/details/78508793
variable_to_restore=variable_averages.variables_to_restore()
# 定義saver向checkpoint儲存和讀取變數
saver=tf.train.Saver(variable_to_restore)
# 定義操作物件,合併操作點,將所有訓練時的summary資訊儲存到磁碟,以便tensorboard顯示
summary_op=tf.summary.merge_all()
# 定義操作物件,將計算圖的資訊儲存到檔案儲存在FLAGS.eval_dir定義的路徑,以備tensorboard列印時使用
summary_writer=tf.summary.FileWriter(FLAGS.eval_dir,g)
while True:
# 迴圈呼叫函式單次評估函式eval_once做資料評估
eval_once(saver=saver,summary_writer=summary_writer,top_k_op=top_k_op,summary_op=summary_op)
# 如果FLAGS.run_once設定為True,也即是隻執行一次評估函式
if FLAGS.run_once:
# 退出迴圈
break
# eval_once每FLAGS.eval_interval_secs==5分鐘執行一次
time.sleep(FLAGS.eval_interval_secs)
def main(argv=None):
# 下載並解壓cifar10的資料,防止沒有資料可評估
cifar10.maybe_download_and_extract()
# 建立目錄儲存Log檔案,儲存評估的結果,供tensorboard列印使用
# 如果目錄存在,說明有歷史資料,刪除重新建立,儲存最新的評估結果
if tf.gfile.Exists(FLAGS.eval_dir):
tf.gfile.DeleteRecursively(FLAGS.eval_dir)
tf.gfile.MakeDirs(FLAGS.eval_dir)
# 評估訓練結果
evaluate()
if __name__ == '__main__':
# 處理FLAGS引數解析,執行main()函式
tf.app.run()
程式碼下載地址
https://github.com/tensorflow/models/tree/master/tutorials/image/cifar10