在最终模型中保存预处理步骤
Saving the preprocessing steps in the end model
我正在尝试将我的文本分类模型保存为 pickle 文件。我有一组特定的预处理步骤,我想将它们保存在我的最终模型中,以将其应用于看不见的数据以进行预测。目前,我尝试使用 sklearn 管道,其中包括预处理、应用计数向量器和应用算法。我的问题是,这是否是在最终模型中保存预处理步骤的正确方法,还是我应该将其保存为单独的文件。下面是我的代码
from sklearn import model_selection
X_train, X_test, y_train, y_test = model_selection.train_test_split(df_train.data, df_train.label, test_size=0.2)
vect = CountVectorizer(stop_words='english', max_features=10000, , ngram_range=(1,2))
X_train_dtm = vect.fit_transform(X_train)
X_test_dtm = vect.transform(X_test)
from sklearn import metrics
from sklearn.ensemble import RandomForestClassifier
rf_classifier = RandomForestClassifier(n_estimators=100)
rf_classifier.fit(X_train_dtm, y_train)
rf_predictions = rf_classifier.predict(X_test_dtm)
print("RF Accuracy:")
metrics.accuracy_score(y_test, rf_predictions)
import pickle
from sklearn.pipeline import Pipeline
pipe = Pipeline([("prep", prep),("CV", vect), ("RF", rf_classifier)])
with open('PII_model.pickle', 'wb') as picklefile:
pickle.dump(pipe, picklefile)
我有一个调用它的预处理方法,我已将其包含在我的 sklearn 管道中
prep = prep(df_train)
一般来说,这是正确的做法。但是你可以改进它,从一开始就把所有的东西都放在管道中:
vect = CountVectorizer(stop_words='english',
max_features=10000,
ngram_range=(1,2))
rf_classifier = RandomForestClassifier(n_estimators=100)
pipe = Pipeline([("prep", prep),("CV", vect), ("RF", rf_classifier)])
pipe.fit(X_train_dtm, y_train)
rf_predictions = pipe.predict(X_test_dtm)
print("RF Accuracy:")
metrics.accuracy_score(y_test, rf_predictions)
with open('PII_model.pickle', 'wb') as picklefile:
pickle.dump(pipe, picklefile)
将所有内容都放在一个管道中的另一个好处 - 您可以轻松地使用 GridSearch 来调整模型的参数。
您还可以在此处找到有关如何组织 pipeline with mixed types 的官方文档。
我正在尝试将我的文本分类模型保存为 pickle 文件。我有一组特定的预处理步骤,我想将它们保存在我的最终模型中,以将其应用于看不见的数据以进行预测。目前,我尝试使用 sklearn 管道,其中包括预处理、应用计数向量器和应用算法。我的问题是,这是否是在最终模型中保存预处理步骤的正确方法,还是我应该将其保存为单独的文件。下面是我的代码
from sklearn import model_selection
X_train, X_test, y_train, y_test = model_selection.train_test_split(df_train.data, df_train.label, test_size=0.2)
vect = CountVectorizer(stop_words='english', max_features=10000, , ngram_range=(1,2))
X_train_dtm = vect.fit_transform(X_train)
X_test_dtm = vect.transform(X_test)
from sklearn import metrics
from sklearn.ensemble import RandomForestClassifier
rf_classifier = RandomForestClassifier(n_estimators=100)
rf_classifier.fit(X_train_dtm, y_train)
rf_predictions = rf_classifier.predict(X_test_dtm)
print("RF Accuracy:")
metrics.accuracy_score(y_test, rf_predictions)
import pickle
from sklearn.pipeline import Pipeline
pipe = Pipeline([("prep", prep),("CV", vect), ("RF", rf_classifier)])
with open('PII_model.pickle', 'wb') as picklefile:
pickle.dump(pipe, picklefile)
我有一个调用它的预处理方法,我已将其包含在我的 sklearn 管道中
prep = prep(df_train)
一般来说,这是正确的做法。但是你可以改进它,从一开始就把所有的东西都放在管道中:
vect = CountVectorizer(stop_words='english',
max_features=10000,
ngram_range=(1,2))
rf_classifier = RandomForestClassifier(n_estimators=100)
pipe = Pipeline([("prep", prep),("CV", vect), ("RF", rf_classifier)])
pipe.fit(X_train_dtm, y_train)
rf_predictions = pipe.predict(X_test_dtm)
print("RF Accuracy:")
metrics.accuracy_score(y_test, rf_predictions)
with open('PII_model.pickle', 'wb') as picklefile:
pickle.dump(pipe, picklefile)
将所有内容都放在一个管道中的另一个好处 - 您可以轻松地使用 GridSearch 来调整模型的参数。
您还可以在此处找到有关如何组织 pipeline with mixed types 的官方文档。