43

とを使用して最適なパラメータを特定した後、このプロセスを後で再利用するにpipelineGridSearchCVどうすればよいですか? 単一の分類子の場合にこれを行う方法がわかります...picklejoblib

from sklearn.externals import joblib
joblib.dump(clf, 'filename.pkl') 

pipelineしかし、実行して完了した後、これを最適なパラメーターで全体的に保存するにはどうすればよいgridsearchですか?

私は試した:

  • joblib.dump(grid, 'output.pkl')-しかし、それはすべてのグリッドサーチ試行をダンプしました(多くのファイル)
  • joblib.dump(pipeline, 'output.pkl')- しかし、最適なパラメータが含まれているとは思いません

X_train = df['Keyword']
y_train = df['Ad Group']

pipeline = Pipeline([
  ('tfidf', TfidfVectorizer()),
  ('sgd', SGDClassifier())
  ])

parameters = {'tfidf__ngram_range': [(1, 1), (1, 2)],
              'tfidf__use_idf': (True, False),
              'tfidf__max_df': [0.25, 0.5, 0.75, 1.0],
              'tfidf__max_features': [10, 50, 100, 250, 500, 1000, None],
              'tfidf__stop_words': ('english', None),
              'tfidf__smooth_idf': (True, False),
              'tfidf__norm': ('l1', 'l2', None),
              }

grid = GridSearchCV(pipeline, parameters, cv=2, verbose=1)
grid.fit(X_train, y_train)

#These were the best combination of tuning parameters discovered
##best_params = {'tfidf__max_features': None, 'tfidf__use_idf': False,
##               'tfidf__smooth_idf': False, 'tfidf__ngram_range': (1, 2),
##               'tfidf__max_df': 1.0, 'tfidf__stop_words': 'english',
##               'tfidf__norm': 'l2'}
4

1 に答える 1

56
import joblib
joblib.dump(grid.best_estimator_, 'filename.pkl')

オブジェクトを 1 つのファイルにダンプする場合は、次を使用します。

joblib.dump(grid.best_estimator_, 'filename.pkl', compress = 1)
于 2015-12-08T21:16:41.807 に答える