创建一个输出字典的张量流数据集

Creating a tensorflow dataset that outputs a dict

我的数据集有一个带有 "metadata" 的字典 {'m1': array_1, 'm2': array_2, ...}. 每个数组的形状都是 (N, ...),其中 N 是样本数。

问题: 是否可以创建一个 tf.data.Dataset 来为数据集 iterator.get_next() 的每次迭代输出字典 {'meta_1': sub_array_1, 'meta_2': sub_array_2, ...}?这里,sub_array_i 应该包含一批的第 i 个元数据,所以应该有形状 (batch_sz, ...).

到目前为止我尝试使用 tf.data.Dataset.from_generator(),像这样:

N = 100
# dictionary of arrays:
metadata = {'m1': np.zeros(shape=(N,2)), 'm2': np.ones(shape=(N,3,5))} 
num_samples = N

def meta_dict_gen():
    for i in range(num_samples):
        ls = {}
        for key, val in metadata.items():
            ls[key] = val[i]
        yield ls

dataset = tf.data.Dataset.from_generator(meta_dict_gen, output_types=(dict))

这个问题似乎在 output_types=(dict)。上面的代码向我抛出

TypeError: Expected DataType for argument 'Tout' not < class 'dict'>.


我正在使用 tensorflow 1.8 和 python 3.6.

所以实际上可以做你想做的,你只需要具体说明字典的内容:

import tensorflow as tf
import numpy as np

N = 100
# dictionary of arrays:
metadata = {'m1': np.zeros(shape=(N,2)), 'm2': np.ones(shape=(N,3,5))}
num_samples = N

def meta_dict_gen():
    for i in range(num_samples):
        ls = {}
        for key, val in metadata.items():
            ls[key] = val[i]
        yield ls

dataset = tf.data.Dataset.from_generator(
    meta_dict_gen,
    output_types={k: tf.float32 for k in metadata},
    output_shapes={'m1': (2,), 'm2': (3, 5)})
iter = dataset.make_one_shot_iterator()
next_elem = iter.get_next()
print(next_elem)

输出:

{'m1': <tf.Tensor 'IteratorGetNext:0' shape=(2,) dtype=float32>,
 'm2': <tf.Tensor 'IteratorGetNext:1' shape=(3, 5) dtype=float32>}