R でパッケージ (v 3.6.0)を使用しておりh2o
、グリッド検索モデルを構築しました。今、検証セットで MSE を最小化するモデルにアクセスしようとしています。Python のsklearn
では、これは以下を使用すると簡単に実現できRandomizedSearchCV
ます。
## Pseudo code:
grid = RandomizedSearchCV(model, params, n_iter = 5)
grid.fit(X)
best = grid.best_estimator_
残念ながら、これは h2o ではそれほど単純ではありません。再作成できる例を次に示します。
library(h2o)
## assume you got h2o initialized...
X <- as.h2o(iris[1:100,]) # Note: only using top two classes for example
grid <- h2o.grid(
algorithm = 'gbm',
x = names(X[,1:4]),
y = 'Species',
training_frame = X,
hyper_params = list(
distribution = 'bernoulli',
ntrees = c(25,50)
)
)
表示grid
すると、次の部分を含む豊富な情報が出力されます。
> grid
ntrees distribution status_ok model_ids
50 bernoulli OK Grid_GBM_file1742e107fe5ba_csv_10.hex_11_model_R_1456492736353_16_model_1
25 bernoulli OK Grid_GBM_file1742e107fe5ba_csv_10.hex_11_model_R_1456492736353_16_model_0
少し掘り下げると、個々のモデルにアクセスして、考えられるすべてのメトリックを表示できます。
> h2o.getModel(grid@model_ids[[1]])
H2OBinomialModel: gbm
Model ID: Grid_GBM_file1742e107fe5ba_csv_10.hex_11_model_R_1456492736353_18_model_1
Model Summary:
number_of_trees model_size_in_bytes min_depth max_depth mean_depth min_leaves max_leaves mean_leaves
1 50 4387 1 1 1.00000 2 2 2.00000
H2OBinomialMetrics: gbm
** Reported on training data. **
MSE: 1.056927e-05
R^2: 0.9999577
LogLoss: 0.003256338
AUC: 1
Gini: 1
Confusion Matrix for F1-optimal threshold:
setosa versicolor Error Rate
setosa 50 0 0.000000 =0/50
versicolor 0 50 0.000000 =0/50
Totals 50 50 0.000000 =0/100
Maximum Metrics: Maximum metrics at their respective thresholds
metric threshold value idx
1 max f1 0.996749 1.000000 0
2 max f2 0.996749 1.000000 0
3 max f0point5 0.996749 1.000000 0
4 max accuracy 0.996749 1.000000 0
5 max precision 0.996749 1.000000 0
6 max absolute_MCC 0.996749 1.000000 0
7 max min_per_class_accuracy 0.996749 1.000000 0
そして、掘り下げて、最終的にこれにたどり着くことができます:
> h2o.getModel(grid@model_ids[[1]])@model$training_metrics@metrics$MSE
[1] 1.056927e-05
これは、モデル選択のトップレベルであるべきメトリックに到達するための多くの厄介な作業のようです. 私の状況では、何百ものモデルを含むグリッドがあり、現在のハッキーなソリューションはあまり「R風」ではないようです。
model_select_ <- function(grid) {
model_ids <- grid@model_ids
min = Inf
best_model = NULL
for(model_id in model_ids) {
model <- h2o.getModel(model_id)
mse <- model@model$training_metrics@metrics$MSE
if(mse < min) {
min <- mse
best_model <- model
}
}
best_model
}
これは、機械学習の実践の中核をなすものとしてはやり過ぎのように思えます。また、最適なモデル、または少なくともモデル メトリックを抽出する「よりクリーンな」方法が h2o にないことは奇妙に思えます。
何か不足していますか?最適なモデルを選択するための「すぐに使える」方法はありませんか?