撤消比例数据pyspark
undo scale data pyspark
from pyspark.ml.feature import MinMaxScaler
from pyspark.ml.linalg import Vectors
df = spark.createDataFrame([
(0, Vectors.dense([5.0, 0.1, -1.0]),),
(1, Vectors.dense([2.0, 2.1, 1.0]),),
(2, Vectors.dense([3.0, 10.1, 7.0]),)
], ["id", "features"])
scaler = MinMaxScaler(inputCol="features", outputCol="scaledFeatures")
scaler_model = scaler.fit(df)
scaled_data = scalerModel.transform(df)
scaled_data
是转换后的数据。
如何在拟合机器学习模型后进行逆尺度分析结果?
MinMaxScaler
将缩放特征添加为新的 scaledFeatures
列,因此您的实际数据不会丢失。
您可以使用 features
列分析您的 scaledFeatures
输出列,然后再将其用于机器学习模型。
from pyspark.ml.feature import MinMaxScaler
from pyspark.ml.linalg import Vectors
df = spark.createDataFrame([
(0, Vectors.dense([5.0, 0.1, -1.0]),),
(1, Vectors.dense([2.0, 2.1, 1.0]),),
(2, Vectors.dense([3.0, 10.1, 7.0]),)
], ["id", "features"])
scaler = MinMaxScaler(inputCol="features", outputCol="scaledFeatures")
scaler_model = scaler.fit(df)
scaled_data = scalerModel.transform(df)
scaled_data
是转换后的数据。
如何在拟合机器学习模型后进行逆尺度分析结果?
MinMaxScaler
将缩放特征添加为新的 scaledFeatures
列,因此您的实际数据不会丢失。
您可以使用 features
列分析您的 scaledFeatures
输出列,然后再将其用于机器学习模型。