5

サポート ベクター マシンを使用してデータセットの予測を実行しようとしていますが、70,000 行と 7 つの特徴しかありません。Google DataLabs で SVM を試しましたが、データセットが大きすぎて DataLabs VM で妥当な有限時間内に計算できません。

Azure Machine Learning Studio の R の Revolution Analytics バージョンなど、CPU コア全体で統計的アプローチをスケーリングするアプローチを活用したいと考えていますが、データは Google BigQuery にあります。

Azure Machine Learning Studio で R スクリプトを接続して、Google BigQuery でデータセットを使用するにはどうすればよいですか?

4

1 に答える 1

1

Python 用の http リクエストまたは Google SDK ( https://cloud.google.com/bigquery/exporting-data-from-bigquery )を使用して、「Python スクリプトの実行」モジュールからデータを取得できます。ロジックに「Rスクリプトを実行」を追加するよりも

于 2016-07-10T09:10:10.170 に答える