使用tensorflow DataSet實現高效載入變長文字輸入
阿新 • • 發佈:2020-01-21
DataSet是tensorflow 1.3版本推出的一個high-level的api,在1.3版本還只是處於測試階段,1.4版本已經正式推出。
在網上搜了一遍,發現關於使用DataSet載入文字的資料比較少,官方舉的例子只是csv格式的,要求csv檔案中所有樣本必須具有相同的維度,也就是padding必須在寫入csv檔案之前做掉,這會增加檔案的大小。
經過一番折騰試驗,這裡給出一個DataSet+TFRecords載入變長樣本的範例。
首先先把變長的資料寫入到TFRecords檔案:
def writedata(): xlist = [[1,2,3],[4,5,6,8]] ylist = [1,2] #這裡的資料只是舉個例子來說明樣本的文字長度不一樣,第一個樣本3個詞標籤1,第二個樣本4個詞標籤2 writer = tf.python_io.TFRecordWriter("train.tfrecords") for i in range(2): x = xlist[i] y = ylist[i] example = tf.train.Example(features=tf.train.Features(feature={ "y": tf.train.Feature(int64_list=tf.train.Int64List(value=[y])),'x': tf.train.Feature(int64_list=tf.train.Int64List(value=x)) })) writer.write(example.SerializeToString()) writer.close()
然後用DataSet載入:
feature_names = ['x'] def my_input_fn(file_path,perform_shuffle=False,repeat_count=1): def parse(example_proto): features = {"x": tf.VarLenFeature(tf.int64),"y": tf.FixedLenFeature([1],tf.int64)} parsed_features = tf.parse_single_example(example_proto,features) x = tf.sparse_tensor_to_dense(parsed_features["x"]) x = tf.cast(x,tf.int32) x = dict(zip(feature_names,[x])) y = tf.cast(parsed_features["y"],tf.int32) return x,y dataset = (tf.contrib.data.TFRecordDataset(file_path) .map(parse)) if perform_shuffle: dataset = dataset.shuffle(buffer_size=256) dataset = dataset.repeat(repeat_count) dataset = dataset.padded_batch(2,padded_shapes=({'x':[6]},[1])) #batch size為2,並且x按maxlen=6來做padding iterator = dataset.make_one_shot_iterator() batch_features,batch_labels = iterator.get_next() return batch_features,batch_labels next_batch = my_input_fn('train.tfrecords',True) init = tf.initialize_all_variables() with tf.Session() as sess: sess.run(init) for i in range(1): xs,y =sess.run(next_batch) print(xs['x']) print(y)
注意變長的資料TFRecords解析要用VarLenFeature,然後用sparse_tensor_to_dense轉換。
以上這篇使用tensorflow DataSet實現高效載入變長文字輸入就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支援我們。