国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

關于Tensorflow中的tf.train.batch函數的使用

2020-02-22 23:51:59
字體:
來源:轉載
供稿:網友

這兩天一直在看tensorflow中的讀取數據的隊列,說實話,真的是很難懂。也可能我之前沒這方面的經驗吧,最早我都使用的theano,什么都是自己寫。經過這兩天的文檔以及相關資料,并且請教了國內的師弟。今天算是有點小感受了。簡單的說,就是計算圖是從一個管道中讀取數據的,錄入管道是用的現成的方法,讀取也是。為了保證多線程的時候從一個管道讀取數據不會亂吧,所以這種時候 讀取的時候需要線程管理的相關操作。今天我實驗室了一個簡單的操作,就是給一個有序的數據,看看讀出來是不是有序的,結果發現是有序的,所以直接給代碼:

import tensorflow as tfimport numpy as npdef generate_data():  num = 25  label = np.asarray(range(0, num))  images = np.random.random([num, 5, 5, 3])  print('label size :{}, image size {}'.format(label.shape, images.shape))  return label, imagesdef get_batch_data():  label, images = generate_data()  images = tf.cast(images, tf.float32)  label = tf.cast(label, tf.int32)  input_queue = tf.train.slice_input_producer([images, label], shuffle=False)  image_batch, label_batch = tf.train.batch(input_queue, batch_size=10, num_threads=1, capacity=64)  return image_batch, label_batchimage_batch, label_batch = get_batch_data()with tf.Session() as sess:  coord = tf.train.Coordinator()  threads = tf.train.start_queue_runners(sess, coord)  i = 0  try:    while not coord.should_stop():      image_batch_v, label_batch_v = sess.run([image_batch, label_batch])      i += 1      for j in range(10):        print(image_batch_v.shape, label_batch_v[j])  except tf.errors.OutOfRangeError:    print("done")  finally:    coord.request_stop()  coord.join(threads)

記得那個slice_input_producer方法,默認是要shuffle的哈。

Besides, I would like to comment this code.

1: there is a parameter ‘num_epochs' in slice_input_producer, which controls how many epochs the slice_input_producer method would work. when this method runs the specified epochs, it would report the OutOfRangeRrror. I think it would be useful for our control the training epochs.

2: the output of this method is one single image, we could operate this single image with tensorflow API, such as normalization, crops, and so on, then this single image is feed to batch method, a batch of images for training or testing wouldbe received.

tf.train.batch和tf.train.shuffle_batch的區別用法

tf.train.batch([example, label], batch_size=batch_size, capacity=capacity):[example, label]表示樣本和樣本標簽,這個可以是一個樣本和一個樣本標簽,batch_size是返回的一個batch樣本集的樣本個數。capacity是隊列中的容量。這主要是按順序組合成一個batch

tf.train.shuffle_batch([example, label], batch_size=batch_size, capacity=capacity, min_after_dequeue)。這里面的參數和上面的一樣的意思。不一樣的是這個參數min_after_dequeue,一定要保證這參數小于capacity參數的值,否則會出錯。這個代表隊列中的元素大于它的時候就輸出亂的順序的batch。也就是說這個函數的輸出結果是一個亂序的樣本排列的batch,不是按照順序排列的。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 盐池县| 祁连县| 阳曲县| 宾川县| 香河县| 临沂市| 九台市| 惠来县| 阿合奇县| 山西省| 七台河市| 崇州市| 苍山县| 惠安县| 张家口市| 原平市| 临洮县| 榕江县| 兴业县| 溆浦县| 彭泽县| 江陵县| 龙山县| 宁津县| 昌吉市| 浑源县| 栾川县| 治多县| 荥阳市| 井冈山市| 东乌珠穆沁旗| 申扎县| 闸北区| 明溪县| 孝感市| 休宁县| 德格县| 双江| 丰县| 化德县| 廉江市|