
关于TensorFlow中dataset.shuffle、dataset.batch与dataset.repeat的注意事项浅析
5星
- 浏览量: 0
- 大小:None
- 文件类型:PDF
简介:
本文探讨了在使用TensorFlow框架时,如何正确运用dataset.shuffle、dataset.batch以及dataset.repeat方法,并分析它们可能带来的影响及需要注意的问题。
batch很好理解,就是指批处理大小(batch size)。注意,在一个epoch中最后一个批次的大小可能小于等于设定的批处理大小。
dataset.repeat表示的是所谓的epoch,在TensorFlow中与dataset.shuffle的使用顺序可能会导致每个epoch的数据混合情况不同。
dataset.shuffle是指维持一个buffer size大小的shuffle buffer。图中所需的样本从这个shuffle buffer中获取,每次取走一个样本后,就会从源数据集中加入一个新的样本到shuffle buffer里。
```python
import os
os.environ[CUDA_VISIBLE_DEVICES] =
```
注意这里最后一行代码设置了环境变量`CUDA_VISIBLE_DEVICES`为空字符串,表示不使用任何GPU设备。
全部评论 (0)
还没有任何评论哟~


