TensorFlow 2.0 中 tf.contrib.layers.layer_norm() 的替代品是什么?
What is the replacement for tf.contrib.layers.layer_norm() in TensorFlow 2.0?
TF 2.0好像没有tf.contrib
。那么,tf.contrib.layers.layer_norm()
的替代品是什么?我也没有在 tensorflow_addons
中找到它。
核心 TensorFlow 2.0 API 中的替代品是 tf.keras.lyaers.LayerNormalizaton()
。
请参阅文档:https://www.tensorflow.org/api_docs/python/tf/keras/layers/LayerNormalization?version=stable。
下面是一个简单的用法示例:
import numpy as np
import tensorflow as tf
model = tf.keras.Sequential()
model.add(tf.keras.layers.Dense(10, input_shape=[20], activation="relu"))
# Here is the LayerNormalization layer.
model.add(tf.keras.layers.LayerNormalization())
model.add(tf.keras.layers.Dense(1, activation="sigmoid"))
model.summary()
print(model.predict(np.ones([1, 20])))
TF 2.0好像没有tf.contrib
。那么,tf.contrib.layers.layer_norm()
的替代品是什么?我也没有在 tensorflow_addons
中找到它。
核心 TensorFlow 2.0 API 中的替代品是 tf.keras.lyaers.LayerNormalizaton()
。
请参阅文档:https://www.tensorflow.org/api_docs/python/tf/keras/layers/LayerNormalization?version=stable。
下面是一个简单的用法示例:
import numpy as np
import tensorflow as tf
model = tf.keras.Sequential()
model.add(tf.keras.layers.Dense(10, input_shape=[20], activation="relu"))
# Here is the LayerNormalization layer.
model.add(tf.keras.layers.LayerNormalization())
model.add(tf.keras.layers.Dense(1, activation="sigmoid"))
model.summary()
print(model.predict(np.ones([1, 20])))