首页 > 其他 > 详细

TFRecord学习

时间:2017-12-30 00:53:19      阅读:244      评论:0      收藏:0      [点我收藏+]

# Author : Hellcat
# Time : 2017/12/30

import tensorflow as tf

example,label = features[‘i‘],features[‘j‘]

# 每个batch的中样例的个数
batch_size = 3
# 队列中样例的个数
capacity = 1000 + 3*batch_size

suffer = True
suffer_join = False
# batch操作实际代指的就是数据读取和预处理操作
if suffer is not True:
example_batch, label_batch = tf.train.batch(
[example,label],batch_size=batch_size,capacity=capacity)
elif suffer_join is True:
# 不同线程处理同一个文件
# 随机只存在文件内部数据读取的顺序
example_batch, label_batch = tf.train.shuffle_batch_join(
[example, label],batch_size=batch_size,capacity=capacity,
min_after_dequeue=30)
else:
# 不同线程处理各自的文件
# 随机包含各个线程选择文件名的随机和文件内部数据读取的随机
example_batch, label_batch = tf.train.shuffle_batch(
[example,label],batch_size=batch_size,capacity=capacity,
min_after_dequeue=30)

tf.global_variables_initializer().run()
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(sess=sess,coord=coord)
for i in range(2):
cur_example_batch, cur_label_batch = sess.run([example_batch,label_batch])
print(cur_example_batch,cur_label_batch)

coord.request_stop()
coord.join(threads)

TFRecord学习

原文:https://www.cnblogs.com/hellcat/p/8146748.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!