Hadoop に google-cloud-storage-connector を使用し、ローカル HDFS (ローカル マシンで実行されている Hadoop) から入力を受け取り、結果を Google Cloud Storage バケットに配置する mapreduce ジョブを実行できました。
ここで、ローカル HDFS (ローカル マシンで実行されている Hadoop) から入力を取得し、結果を Cloud Datastore の種類 (種類はデータベース テーブルと同義) に配置する、Hadoop 用の google-datastore-connector を使用して mapreduce ジョブを実行したいと考えています。
必要なすべての構成と、従う必要がある手順を教えてください。