如何在带有 LSTM 层的 tensorflow hub 中使用嵌入模型?

How to use embedding models in tensorflow hub with LSTM layer?

我正在学习 tensorflow 2,通过 TF hub 教程完成文本分类。它使用了 TF hub 的嵌入模块。我想知道我是否可以修改模型以包含 LSTM 层。这是我尝试过的:

train_data, validation_data, test_data = tfds.load(
    name="imdb_reviews",
    split=('train[:60%]', 'train[60%:]', 'test'),
    as_supervised=True)
embedding = "https://tfhub.dev/google/tf2-preview/gnews-swivel-20dim/1"
hub_layer = hub.KerasLayer(embedding, input_shape=[],
                           dtype=tf.string, trainable=True)

model = tf.keras.Sequential()
model.add(hub_layer)
model.add(tf.keras.layers.Embedding(10000, 50))
model.add(tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(64)))
model.add(tf.keras.layers.Dense(64, activation='relu'))
model.add(tf.keras.layers.Dense(1))
model.summary()

model.compile(optimizer='adam',
              loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),
              metrics=['accuracy'])

history = model.fit(train_data.shuffle(10000).batch(512),
                    epochs=10,
                    validation_data=validation_data.batch(512),
                    verbose=1)

results = model.evaluate(test_data.batch(512), verbose=2)

for name, value in zip(model.metrics_names, results):
  print("%s: %.3f" % (name, value))

我不知道如何从 hub_layer 中获取词汇量。所以我只是把 10000 放在那里。当运行它时,它抛出这个异常:

tensorflow.python.framework.errors_impl.InvalidArgumentError:  indices[480,1] = -6 is not in [0, 10000)
     [[node sequential/embedding/embedding_lookup (defined at .../learning/tensorflow/text_classify.py:36) ]] [Op:__inference_train_function_36284]

Errors may have originated from an input operation.
Input Source operations connected to node sequential/embedding/embedding_lookup:
 sequential/embedding/embedding_lookup/34017 (defined at Library/Frameworks/Python.framework/Versions/3.7/lib/python3.7/contextlib.py:112)

Function call stack:
train_function

我卡在这里了。我的问题是:

  1. 我应该如何使用 TF hub 的嵌入模块来提供 LSTM 层?看起来嵌入查找的设置有一些问题。

  2. 如何从中心层获取词汇量?

谢谢

终于找到了 link pre-trained 嵌入到 LSTM 或其他层的方法。只是 post 这里的步骤,以防有人觉得有帮助。

嵌入层必须是模型中的第一层。 (hub_layer 与 Embedding 层相同。)不太直观的部分是,任何输入到 hub 层的文本都将仅转换为一个形状为 [embedding_dim] 的向量。您需要进行句子拆分和标记化,以确保模型的任何输入都是数组形式的序列。例如,“让我们准备数据。”应转换为 [["let"],["us"],["prepare"], ["the"], ["data"]]。如果您使用批处理模式,您还需要填充序列。

此外,如果您的训练标签是字符串,则需要将目标标记转换为 int。模型的输入是形状为 [batch, seq_length] 的字符串数组,hub 嵌入层将其转换为 [batch, seq_length, embed_dim]。 (如果添加 LSTM 或其他 RNN 层,该层的输出为 [batch, seq_length, rnn_units]。)输出密集层将输出文本索引而不是实际文本。文本的索引存储在下载的 tfhub 目录中作为“tokens.txt”。您可以加载文件并将文本转换为相应的索引。否则你无法计算损失。