問題タブ [google-cloud-shell]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
asp.net-core - Google Cloud Shell で .NET Core 2.1 アプリのビルドが失敗する
Google Cloud PlatformにデプロイしようとしているASP.NET Core 2.1アプリを作成しました。ローカルで使用しても問題なくビルドできます。dotnet build
ただし、Google Cloud Shell でビルドすることはできません。実行dotnet --version
すると、Google Cloud Shell に .NET Core 2.0がインストールされていることが確認されます。
実行gcloud app deploy
するとアプリの展開が開始されますが、ログから次のような不可解なエラーが表示されます。
ステップ #0: ステータス: gcr.io/gcp-runtimes/aspnetcorebuild@sha256:ad1b788a9b4cca75bb61eb523ef358ca059c4bd208fba15a10ccc6acab83f49a の新しいイメージをダウンロードしました
ステップ #0: アプリの .deps.json ファイルが見つかりません ステップ #0 の完了
エラー: ビルド ステップ 0 "gcr.io/gcp-runtimes/aspnetcorebuild@sha256:ad1b788a9b4cca75bb61eb523ef358ca059c4bd208fba15a10ccc6acab83f49a" が失敗しました: 終了ステータス 1
GCP はデフォルトで.NET Core 2.1コンテナーをサポートするという印象を受けていたので、 Dockerfileは含めていません。
フレキシブル環境にデプロイしようとしています。私のapp.yaml
ファイルは次のとおりです。
カスタム Docker コンテナーを作成する必要がありますか? または、Google Cloud Shell で .NET Core 2.1 のサポートを取得する他の方法はありますか?
編集:今のところ、Google Cloud Tools をインストールして、実行gcloud app deploy
後にローカルのシェルで実行しdotnet publish
ます。
git - Google Cloud Shell から外部サーバーへのアウトバウンド SSH
gcloud App Engineで遊んでいて、Google Cloud Shell を使用してプライベート git サーバーから git リポジトリのクローンを作成したいと考えていますが、何らかの理由で接続タイムアウトが発生します。
これはsshが私に与えるものです:
*ホスト、ドメイン、IP、およびポートは明らかな理由で変更されました
考慮事項:
- 私のgitサーバーは稼働中であり、同じコマンドを使用して他のマシンから接続できます
- git サーバーのログに gcloud からの着信接続が表示されない
- App Engine 以外は使用しておらず、Compute Engine をプロビジョニングしたくない
誰かが同じ問題を見つけて、解決策を共有したいですか?
google-cloud-platform - airflow S3ToGoogleCloudStorageOperator デバイスにスペースが残っていません
Airflow とその Operator S3ToGoogleCloudStorageOperator を使用して、S3 から GCP に大きなファイルを転送しようとしています。400 Mb のファイルを転送できましたが、それ以上にしようとすると失敗します: 2Gb 次のエラーが表示されます:
[2018-09-19 12:30:43,907] {models.py:1736} エラー - [Errno 28] デバイスのトレースバックにスペースが残っていません (最新の呼び出しが最後):
ファイル "/home/jma/airflow/env/lib /python3.5/site-packages/airflow/models.py"、1633 行目、_run_raw_task 結果 = task_copy.execute(context=context)
ファイル "/home/jma/airflow/env/lib/python3.5/site- packages/airflow/contrib/operators/s3_to_gcs_operator.py"、156 行目、実行中 file_object.download_fileobj(f)
ファイル "/home/jma/airflow/env/lib/python3.5/site-packages/boto3/s3/inject .py"、760 行目、object_download_fileobj ExtraArgs=ExtraArgs、Callback=Callback、Config=Config)
ファイル "/home/jma/airflow/env/lib/python3.5/site-packages/boto3/s3/inject.py" 、678 行目、download_fileobj で future.result() を返す
ファイル "/home/jma/airflow/env/lib/python3.5/site-packages/s3transfer/futures.py"、73 行目、結果は self._coordinator.result()
ファイル "/home/jma/airflow/ env/lib/python3.5/site-packages/s3transfer/futures.py"、233行目、結果としてself._exception
ファイルが発生します"/home/jma/airflow/env/lib/python3.5/site-packages/s3transfer /tasks.py" の 126 行目、呼び出しでself._execute_main(kwargs) を返し
ます_execute_main return_value = self._main(**kwargs)
ファイル「/home/jma/airflow/env/lib/python3.5/site-packages/s3transfer/download.py」、583 行目、_main ファイルobj.write(data)
ファイル「/home/jma/airflow/env/lib/python3.5/tempfile.py」、622 行目、func_wrapper return func(*args, **kwargs) OSError: [Errno 28] デバイスにスペースが残っていません
DAG の完全なコードは、この他の SO の質問にあります。
ファイルは S3 から GCP に直接送信されませんが、Airflow が実行されているマシンにダウンロードされます。トレースを見ると、boto が原因である可能性がありますが、問題を修正する方法がわかりません。つまり、ファイルを一時的にコピーするためのフォルダーを割り当てます。
非常に大きなファイルを移動したいのですが、制限が課されないように設定するにはどうすればよいですか?
GCP で Google Cloud Shell から Airflow 1.10 を実行しています。ホーム ディレクトリに 4 Gb の空き容量があります (移動するファイルは 2 Gb です)。