これはおそらく簡単な質問ですが、見つけることができません。しかし、私はこれらすべてにかなり慣れていないので、盲目なだけかもしれません。
SGD または Adagrad で TensorFlowDNNRegressor を使用する場合のデフォルトの学習率は? Adam または Adadelta を使用する場合のデフォルトは 0.001 のようですが、TensorFlowDNNRegressor のデフォルト オプティマイザーである Adagrad のデフォルトも、従来の SGD のデフォルトも見つかりません。
ありがとう!