以更少的火炬模型延迟读取大型数据集的最佳方法是什么?

What is the best way to read large datasets with less latency for torch model?

我熟悉使用一些数据特定层或工具,这是我使用 mxnet (recordIO)、caffe(LMDB) 等库的习惯。他们还处理数据增强技巧。我决定试一试 Torch,看看好坏。从最初的角度来看,Torch 没有这样的数据加载标准,或者我错过了它。你能指出一些为我的模型训练加载大规模数据集的好方法吗?

一些建议:

还可以在 torch7/wiki 中找到更多资源。