問題タブ [google-cloud-dataflow]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
87 参照

google-cloud-dataflow - ブール値のコーダー?

Java SDK ドキュメントをスキャンしましたが、明らかな何かが欠けているか、見当たりません。ブール値の適切なコーダーは何でしょうか? これは基本的なことのように思えるので、前者が当てはまると思います。

0 投票する
1 に答える
259 参照

google-app-engine - memcache とカスタム DoFn とデータフロー

データフローで Google memcache を使用しようとしています。基本的に、データを memcache に変換したいと思います。データフロー内で Google memcache API を使用することは可能ですか?

次のエラーが発生します: java.util.concurrent.ExecutionException: com.google.apphosting.api.ApiProxy$CallNotFoundException: The API package 'memcache' or call 'Set()' was not found. com.google.appengine.api.utils.FutureWrapper.setExceptionResult(FutureWrapper.java:65)

これはコード行です:

0 投票する
2 に答える
374 参照

java - Dataflow パイプライン コードを Java 8 で実行することはできますか?

おそらく、Cloud Dataflow は現在 Java 7 しか実行していないため、パイプラインで変換を実行できないことが判明しました。パイプラインで実行される既存のコードはすべて Java 8 に依存しています (Java 8 コンパイラでのみビルドできます)。 )。それを回避する方法はありますか?https://cloud.google.com/dataflow/faqに Java 7 の制限が明確に記載されているのを見ましたが、それを回避できるハックな方法があることを願っています。

0 投票する
1 に答える
445 参照

google-cloud-dataflow - Cloud Dataflow で、ワーカーが実行されている Docker コンテナを調べるにはどうすればよいですか?

Dataflow ワーカーが実行されている Docker コンテナへのシェル アクセスを取得するにはどうすればよいですか?

この質問のコメントで述べたようにteardownPolicy=TEARDOWN_NEVER、パイプラインが終了した後もワーカー VM を維持するように設定できます。これにより、ホスト VM に SSH 接続できますが、ワーカー タスクが実行される Docker コンテナーには挿入されません。そのコンテナーへのシェル アクセスを取得するにはどうすればよいですか?

コンテキスト: ワーカー内の Docker コンテナーにシェルアウトしたいのですが、ワーカー コンテナー内でdockerバイナリが利用できないようです。コンテナーに Docker をインストールしようとしましたが、エラーが発生し、次のコマンドをテストするためだけに新しいパイプラインを開始する必要があり、時間がかかります。

0 投票する
1 に答える
447 参照

google-cloud-dataflow - Googleクラウドデータフローは、圧縮データからデータを読み取ります

Google クラウド データフローを使用して GCS からデータを読み取り、BigQuery テーブルにロードしようとしていますが、GCS のファイルは圧縮 (gzip) されています。圧縮 / gzip されたファイルからデータを読み取るために使用できるクラスはありますか?

0 投票する
1 に答える
192 参照

google-cloud-dataflow - データフロー ジョブを実行するために設定されている VM の数を知るにはどうすればよいですか?

データフロー サービスを使用してジョブを実行し、GCS からデータを読み取り、BQ テーブルに書き込みます。ジョブは正常に実行されます。Google がジョブ用に設定した VM の数を確認する方法または場所を知りたいのですが。

ありがとうございました。