問題タブ [hdfs]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
amazon-s3 - プログラムでHDFSからS3にファイルを効果的にコピーする方法
私のhadoopジョブはHDFSで多数のファイルを生成し、これらのファイルをHDFSからS3にコピーする別のスレッドを作成したいと思います。
誰かがそれを処理するJavaAPIを教えてくれませんか。
ありがとう
amazon-s3 - ローカル マシンから Amazon s3 への Hadoop アップロード ファイル
ユーザーのローカルマシンからS3バケットへの写真のアップロードサービスを提供できる必要があるJava MapReduceアプリに取り組んでいます。
問題は、アプリを EC2 クラスターで実行する必要があるため、ファイルをコピーするときにローカル マシンを参照する方法がわかりません。メソッド copyFromLocalFile(..) には、EC2 クラスターとなるローカル マシンからのパスが必要です...
問題を正しく説明したかどうかわかりませんが、誰かが私の言いたいことを理解できますか?
ありがとう
hadoop - 小さなHDFSブロックを組み合わせる最も簡単な方法はどれですか?
Flumeを使用してHDFSにログを収集しています。テストケースでは、ログ収集プロセスが実際の使用に合わせてスケーリングされているため、小さなファイル(〜300kB)があります。
これらの小さなファイルをHDFSブロックサイズ(64MB)に近い大きなファイルに結合する簡単な方法はありますか?
hadoop - Hadoop namenode : 単一障害点
Hadoop アーキテクチャの Namenode は単一障害点です。
大規模な Hadoop クラスターを使用している人々は、この問題にどのように対処していますか?.
プライマリ Namenode に障害が発生した場合にセカンダリ Namenode が引き継ぐ、業界で受け入れられているソリューションはありますか?
java - HDFS 入力と HBASE 出力を使用する hadoop map reduce ジョブ
私はhadoopが初めてです。Hdfs から入力を取得し、リデューサーの出力を Hbase に書き込む MapReduce ジョブがあります。良い例が見つかりませんでした。
コードは次のとおりです。この例を実行する際のエラーは、マップ内の型の不一致です。ImmutableBytesWritable が IntWritable を受け取りました。
マッパークラス
レデューサークラス
私はHDFSでのみ同様の仕事をしていて、うまくいきました。
2013 年 6 月 18 日編集。大学のプロジェクトは 2 年前に成功裏に終了しました。ジョブ構成(ドライバー部分)については、正解にチェックを入れてください。
hadoop - 「distcp」と「distcp -update」の違いは?
違いは何ですか
と
呼び方がわずかに異なるだけで、どちらも同じ働きをします。それらのいずれも、宛先の既存のファイルを上書きしません。それでは、2 つの異なるコマンド セットのポイントは何でしょうか?
java - Hbase と Hive を統合する利点は何ですか
最近、著者が Hbase と Hive の統合について言及しているブログを見つけました。これは可能でしょうか。可能であれば、両方を使用する利点は何ですか (パフォーマンスとスケーラビリティの観点から)。私が間違っていた場合は、親切に修正してください。
hdfs - HDFS における DFSClient と FileSystem の違い
Hadoop DFS (HDFS)の DFSClient プロトコルと FileSystem クラスの違いは何ですか。これらのクラスは両方とも、リモート クライアントを HDFS の namenode に接続するために使用されます。そのため、それぞれの利点と、リモートクライアント接続に適しているのはどれかを知りたいと思いました。
hadoop - Hadoop でディレクトリをコピーしますか?
ローカル ディレクトリ全体を HDFS にコピーできる HDFS API はありますか? ファイルをコピーするための API を見つけましたが、ディレクトリ用の API はありますか?
hbase - 非常に大きなデータセット(リレーショナルDB以外)を保存およびクエリする方法
現在、非常に大きなデータセット(数十億)からデータを効果的に保存および取得する方法の問題に直面しています。私たちはmysqlを使用しており、システム、OS、raid、クエリ、インデックスなどを最適化しており、現在、先に進むことを検討しています。
データの問題を解決するためにどのテクノロジーを追求するかについて、十分な情報に基づいて決定する必要があります。私はHDFSでmap/reduceを調査してきましたが、HBaseについても良いことを聞いています。他にも選択肢があると思います。利用可能なテクノロジーとそれぞれのトレードオフの良い比較はありますか?
それぞれに共有するリンクがあれば、それもありがたいです。