0

マスタースレーブとしてUbuntuホストを使用し、別のスレーブ(2ノードクラスター)として実行されている仮想マシンでhadoopクラスターを実行しています。

No data nodes are startedで解決されるはずの問題の解決策がうまくいかないようです。そこで説明されている両方のソリューションを試しました。

影響を受けるデータノードの名前空間 ID を手動でノードに名前を付けてクラスターを起動すると (リンクされた投稿のソリューション 2)、同じエラー (DataStreamer Exception) が引き続き発生するようです。次に、データ ノードの 1 つのログに同じ Incompatible namespaceIDs エラーが表示されますが、ログに表示されるデータ ノードの名前空間 ID は、現在の tmp/dfs/data/current/version ファイル (変更されておらず、 tmp/dfs/name/current/version と同じ)

何時間もデバッグした後、私はまだ無知です:(。

PS:

  • ホストからスレーブへの接続に問題はありません

  • start-dfs.sh を使用してクラスターを開始すると、両方のノードのデータノードが開始されます。

  • このエラーは、ファイルをローカルから hdfs にコピーするときに直面しています。

このすべての後、簡単なテストを実行しました

  • マスターの tmp/dfs/data および tmp/dfs/name フォルダーを削除しました
  • スレーブの tmp/dfs/data を削除
  • hadoop namenode -format を使用して namenode をフォーマットします
  • start-dfs を使用してクラスターを開始しました。すべてのノード
  • マスターで正常に起動し、データノードもスレーブで起動しています
  • copyfromLocal コマンドを実行すると、以下と同じエラーが表示されました
  • しかし、今回はマスターまたはスレーブのデータノードログのいずれにも名前空間の不一致エラーはありません

14/05/04 04:12:54 警告 hdfs.DFSClient: DataStreamer 例外: org.apache.hadoop.ipc.RemoteException: java.io.IOException: ファイル /user/dsingh/mysample は 0 ノードにしか複製できませんでした。 org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:1920) で 1 個中 org.apache.hadoop.hdfs.server.namenode.NameNode.addBlock(NameNode.java:783) で Sun で.reflect.NativeMethodAccessorImpl.invoke0(ネイティブ メソッド) の sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) の sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) の java.lang.reflect.Method.invoke (Method.java:606) org.apache.hadoop.ipc.RPC$Server.call(RPC.java:587) で org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1432) でorg.apache.hadoop.ipc にあります。Server$Handler$1.run(Server.java:1428) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:415) at org.apache.hadoop.security .UserGroupInformation.doAs(UserGroupInformation.java:1190) at org.apache.hadoop.ipc.Server$Handler.run(Server.java:1426)

org.apache.hadoop.ipc.Client.call(Client.java:1113) で org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:229) で com.sun.proxy.$Proxy1。 addBlock(不明なソース) の sun.reflect.NativeMethodAccessorImpl.invoke0(ネイティブ メソッド) の sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) の sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) の java. org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:85) の lang.reflect.Method.invoke(Method.java:606) org.apache.hadoop.io.retry.RetryInvocationHandler.invoke( RetryInvocationHandler.java:62) の com.sun.proxy.$Proxy1.addBlock (不明なソース) の org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.locateFollowingBlock(DFSClient.java:3720) の org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.nextBlockOutputStream(DFSClient.java:3580) org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.access$2600(DFSClient.java:2783) org.apache.hadoop.hdfs.DFSClient$DFSOutputStream$DataStreamer実行 (DFSClient.java:3023)

14/05/04 04:12:54 警告 hdfs.DFSClient: null のエラー回復 不良な datanode[0] ノード == null 14/05/04 04:12:54 警告 hdfs.DFSClient: ブロックの場所を取得できませんでした。ソース ファイル "/user/dsingh/mysample" - 中止しています... put: java.io.IOException: ファイル /user/dsingh/mysample は 1 ではなく 0 ノードにしか複製できませんでした 14/05/04 04:12: 54 エラー hdfs.DFSClient: ファイル /user/dsingh/mysample org.apache.hadoop.ipc.RemoteException を閉じられませんでした: java.io.IOException: ファイル /user/dsingh/mysample は 1 ではなく 0 ノードにしか複製できませんでしたorg.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:1920) で org.apache.hadoop.hdfs.server.namenode.NameNode.addBlock(NameNode.java:783) で sun.reflect .NativeMethodAccessorImpl.invoke0(ネイティブ メソッド) at sun.reflect.

org.apache.hadoop.ipc.Client.call(Client.java:1113) で org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:229) で com.sun.proxy.$Proxy1。 addBlock(不明なソース) の sun.reflect.NativeMethodAccessorImpl.invoke0(ネイティブ メソッド) の sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) の sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) の java. org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:85) の lang.reflect.Method.invoke(Method.java:606) org.apache.hadoop.io.retry.RetryInvocationHandler.invoke( RetryInvocationHandler.java:62) の com.sun.proxy.$Proxy1.addBlock (不明なソース) の org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.locateFollowingBlock(DFSClient.java:3720) の org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.nextBlockOutputStream(DFSClient.java:3580) org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.access$2600(DFSClient.java:2783) org.apache.hadoop.hdfs.DFSClient$DFSOutputStream$DataStreamer実行 (DFSClient.java:3023)

手がかりは私を助けます。

4

3 に答える 3

1

この問題に数時間取り組んだ後。私はついにあきらめましたが、私の知識の宇宙ではまだ解決されていません。]

しかし、良いことは、同じマシンで仮想ボックスをスレーブとして使用する代わりに、別のubuntuマシンをマスターに接続し、すべてが魅力的に機能したことです:)私が推測する問題は、仮想ストレージの仮想メモリ割り当てが制限されていることに関連している可能性があります私の場合、マシン(500Mb未満でした)であり、HDFSを満足させるには、クラスター内の各ノードに少なくとも10 GBの空き容量が必要であることをどこかで読みました。

可能であれば、同じホストで仮想マシンを使用するのではなく、2 つの別々のマシンで Hadoop クラスターを試してください。

于 2014-05-09T05:48:42.077 に答える
0

-copyFromLocal を実行した後、Datanode がファイルの書き込み要求を取得するようになったようです。ただし、ファイルに必要なブロックを割り当てることができませんでした。何が起こったのかを正確に確認するには、Datanode ログを確認してください。また、「hdfs dfsadmin -report」を実行して、データノードに十分なスペースがあることを確認してください。

于 2014-05-04T14:57:59.197 に答える