問題タブ [google-cloud-datalab]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
google-app-engine - Cloud Datalab が ERROR: Could not pick a region and/or zone でデプロイに失敗する
Datalab をデプロイしようとすると、datalab appengine モジュールのデプロイ中にログに次のエラーが表示されます。
datalab というモジュールが表示されます (us-central にあると表示されます) が、ページに戻って起動すると、もう一度デプロイするように求められます。3~4回やり直しましたが同じ結果です。
ログがエラーまたは問題として突き出ていることは他にありません。これを回避するための提案はありますか?
google-cloud-datalab - データラボ ノートブックの共有
私が読んだように、.pynb ファイルをダウンロードしてその方法で共有するか、html リンクを共有することで、クラウド データラボ ノートブックを共有できます。
datalab_main の下に新しいフォルダーを作成し、新しいノートブックを作成しました。git リポジトリ ソース コードからファイルをコミットしましたが、正常にコミットされました。html の方法で共有しようとすると、リポジトリのコミットが他のユーザーに反映されていませんでした。同じプロジェクト (すべての権限を持っている) で、html URL にアクセスすると、作成したフォルダーが他のユーザー用に作成されていないため、404 が表示されます。
google-bigquery - DataLab から BigQuery API に接続できない
データ ラボ ノートブックからビッグ クエリ API に接続するために、Python で次のコードを実行しています。
次のエラーが表示されます。
() 内の ImportError トレースバック (最新の呼び出しが最後)
----> 5 個の認証情報 = GoogleCredentials.get_application_default() 6 7 bigquery_service = build('bigquery', 'v2', credentials=credentials)
/usr/local/lib/python2.7/dist-packages/oauth2client/client.pyc in >get_application_default() 1202 """ 1203 return self -> 1204 1205 @property 1206 def serialization_data(self):
/usr/local/lib/python2.7/dist-packages/oauth2client/client.pyc in _get_implicit_credentials(cls) 1187 access_token、client_id、client_secret、refresh_token、1188 token_expiry、token_uri、user_agent、revoke_uri=revoke_uri) -> 1189 1190 def create_scoped_required(self): 1191 """この Credentials オブジェクトがスコープレスかどうか。
/usr/local/lib/python2.7/dist-packages/oauth2client/client.pyc in _implicit_credentials_from_gce() 1123 def _in_gce_environment(): 1124 """コードが Compute Engine 環境で実行されているかどうかを検出します。 -> 1125 1126戻り値: 1127 GCE 環境で実行している場合は true、それ以外の場合は false。
/usr/local/lib/python2.7/dist-packages/oauth2client/client.pyc in _get_application_default_credential_GCE() 1378 資格情報: 既知のファイルに保存される資格情報。1379 GoogleCredentials のインスタンスである必要があります -> 1380 well_known_file: 資格情報が保存されるファイルの名前。このパラメーターは、1382 テストのみに使用されることになっています。
/usr/local/lib/python2.7/dist-packages/oauth2client/gce.py in () 24 oauth2client._helpers から import _from_bytes 25 oauth2client import util ---> 26 from oauth2client.client import HttpAccessTokenRefreshError 27 from oauth2client.クライアントのインポート AssertionCredentials 28
ImportError: 名前 HttpAccessTokenRefreshError をインポートできません
私は何が欠けていますか?この Google 提供の例がデータ ラボで機能しないのはなぜですか?
google-app-engine - Google Cloud Platform で datalabs 環境を停止または削除できない
https://cloud.google.com/datalab/getting-started#manage_instances_and_notebooksのVM インスタンスの削除に記載されている手順を使用しても、datalab を削除できません。エラーが発生し続ける -- 「エラー: このアプリケーションに対して保留中の操作があります。しばらくしてからもう一度お試しください。」
しばらくしてから試してみます...しかしうまくいきません。アカウントへの請求が増えており、止められません。
すでに次のことを試しました: Google Cloud Datalab を正しく停止する方法
google-cloud-datalab - Google Cloud Datalab で sklearn 0.17 を実行する
Google Datalab で sklearn.feature_selection を使用しようとしていますが、Datalab にはデフォルトでバージョン 0.16.1 がインストールされています。を使用してバージョン0.17をインストールしてみました
これはうまくいきますが、新しいコード ブロックを実行すると、まだ古い sklearn バージョンを取得していますが、正しいパスです。
それでは、新しい bash ブロックを試してみましょう。
私は何が欠けていますか?
svm - Google Cloud DataLabs で SVM を実行するために使用できる CPU を増やすにはどうすればよいですか?
〜70,000行のデータベースと〜7つの機能があり、SVMベースの予測を実行しようとしています。サービスは停止する前に 4 ~ 5 時間実行されました (結果はありませんでした)。計算を実行する CPU の数をスケールアップまたはスケールダウンして、数時間ではなく数分で実行できるようにするにはどうすればよいでしょうか?
r - Azure Machine Learning Studio を Google BigQuery に接続するにはどうすればよいですか?
サポート ベクター マシンを使用してデータセットの予測を実行しようとしていますが、70,000 行と 7 つの特徴しかありません。Google DataLabs で SVM を試しましたが、データセットが大きすぎて DataLabs VM で妥当な有限時間内に計算できません。
Azure Machine Learning Studio の R の Revolution Analytics バージョンなど、CPU コア全体で統計的アプローチをスケーリングするアプローチを活用したいと考えていますが、データは Google BigQuery にあります。
Azure Machine Learning Studio で R スクリプトを接続して、Google BigQuery でデータセットを使用するにはどうすればよいですか?