在馈送到 torch 模块之前,我们应该如何对输入进行批处理?
How should we batch the inputs before feeding to the torch modules?
在 torch 中应该使用哪个输入维度进行批处理?
我有1000个训练样本,每个训练样本的维度是10*5。现在,我想将这些数据以每批 100 个示例的形式提供给 Sequencer。
我应该如何构建我的输入?每批输入的维度应该是100*10*5(第一个维度用于batch)还是10*100*5(第二个维度用于batch)?
希望能找到相关文档的链接来解释所遵循的约定。
容器和模块的约定是否改变?
通常是100*10*5
大小的Tensor。如果它是图像,则可能是您必须考虑通道数,因此它将是 batchSize*channels*width*height
。这将使数据易于访问,您只需执行 inputs[{i}]
即可检索您的数据。考虑创建另一个 Tensor 来存储标签(如果您使用带标签的数据)。您可以在此处找到示例。 https://github.com/torch/tutorials/blob/master/2_supervised/4_train.lua#L131
我建议你看一下教程,在那里你会看到在馈送网络之前数据必须如何 "prepared" https://github.com/torch/tutorials
在 torch 中应该使用哪个输入维度进行批处理?
我有1000个训练样本,每个训练样本的维度是10*5。现在,我想将这些数据以每批 100 个示例的形式提供给 Sequencer。
我应该如何构建我的输入?每批输入的维度应该是100*10*5(第一个维度用于batch)还是10*100*5(第二个维度用于batch)?
希望能找到相关文档的链接来解释所遵循的约定。
容器和模块的约定是否改变?
通常是100*10*5
大小的Tensor。如果它是图像,则可能是您必须考虑通道数,因此它将是 batchSize*channels*width*height
。这将使数据易于访问,您只需执行 inputs[{i}]
即可检索您的数据。考虑创建另一个 Tensor 来存储标签(如果您使用带标签的数据)。您可以在此处找到示例。 https://github.com/torch/tutorials/blob/master/2_supervised/4_train.lua#L131
我建议你看一下教程,在那里你会看到在馈送网络之前数据必须如何 "prepared" https://github.com/torch/tutorials