0

dn ログを確認すると、次のようなログが多数あることがわかりました。

2016-07-01 05:53:29,328 INFO org.apache.hadoop.hdfs.server.datanode.VolumeScanner: VolumeScanner(/data12/hadoop/dfs, DS-086bc494-d862-470c-86e8-9cb7929985c6): スケジュールされていません最近再スキャンしたため、再スキャンのために BP-360285305-10.130.1.11-1444619256876:blk_1095475173_21737939 をブロックします。
2016-07-01 05:53:29,330 INFO org.apache.hadoop.hdfs.server.datanode.VolumeScanner: VolumeScanner(/data12/hadoop/dfs, DS-086bc494-d862-470c-86e8-9cb7929985c6): スケジュールされていません最近再スキャンしたため、再スキャンのために BP-360285305-10.130.1.11-1444619256876:blk_1095475173_21737939 をブロックします。
2016-07-01 05:53:29,334 INFO org.apache.hadoop.hdfs.server.datanode.VolumeScanner: VolumeScanner(/data12/hadoop/dfs, DS-086bc494-d862-470c-86e8-9cb7929985c6): スケジュールされていません最近再スキャンしたため、再スキャンのために BP-360285305-10.130.1.11-1444619256876:blk_1095475173_21737939 をブロックします。
2016-07-01 05:53:29,340 INFO org.apache.hadoop.hdfs.server.datanode.VolumeScanner: VolumeScanner(/data12/hadoop/dfs, DS-086bc494-d862-470c-86e8-9cb7929985c6): スケジュールされていません最近再スキャンしたため、再スキャンのために BP-360285305-10.130.1.11-1444619256876:blk_1095475173_21737939 をブロックします。
2016-07-01 05:53:29,342 INFO org.apache.hadoop.hdfs.server.datanode.VolumeScanner: VolumeScanner(/data12/hadoop/dfs, DS-086bc494-d862-470c-86e8-9cb7929985c6): スケジュールされていません最近再スキャンしたため、再スキャンのために BP-360285305-10.130.1.11-1444619256876:blk_1095475173_21737939 をブロックします。
2016-07-01 05:53:29,344 INFO org.apache.hadoop.hdfs.server.datanode.VolumeScanner: VolumeScanner(/data12/hadoop/dfs, DS-086bc494-d862-470c-86e8-9cb7929985c6): スケジュールされていません最近再スキャンしたため、再スキャンのために BP-360285305-10.130.1.11-1444619256876:blk_1095475173_21737939 をブロックします。
2016-07-01 05:53:29,346 INFO org.apache.hadoop.hdfs.server.datanode.VolumeScanner: VolumeScanner(/data12/hadoop/dfs, DS-086bc494-d862-470c-86e8-9cb7929985c6): スケジュールされていません最近再スキャンしたため、再スキャンのために BP-360285305-10.130.1.11-1444619256876:blk_1095475173_21737939 をブロックします。

例外スタック トレースは次のようになります。

2016-07-01 11:56:38,601 エラー org.apache.hadoop.hdfs.server.datanode.DataNode: DatanodeRegistration(xxx29:50010、datanodeUuid=f3d795cc-2b3b-43b9-90c3-e4157c031d2c、infoPort=50075、infoSecurePort=0 、ipcPort=50020、storageInfo=lv=-56;cid=CID-a99b693d-6f26-48fe-ad37-9f8162f70b22;nsid=920937379;c=0): BP-360285305-10.130.1.11-144461925681906:192568195:192568195_2568195を提供中に例外が発生しました/xxx21:44153 へ
java.io.IOException: ピアによって接続がリセットされました
        at sun.nio.ch.FileChannelImpl.transferTo0(ネイティブメソッド)
        sun.nio.ch.FileChannelImpl.transferToDirectlyInternal(FileChannelImpl.java:427) で
        sun.nio.ch.FileChannelImpl.transferToDirectly(FileChannelImpl.java:492) で
        sun.nio.ch.FileChannelImpl.transferTo(FileChannelImpl.java:607) で
        org.apache.hadoop.net.SocketOutputStream.transferToFully (SocketOutputStream.java:223) で
        org.apache.hadoop.hdfs.server.datanode.BlockSender.sendPacket (BlockSender.java:586) で
        org.apache.hadoop.hdfs.server.datanode.BlockSender.doSendBlock (BlockSender.java:769) で
        org.apache.hadoop.hdfs.server.datanode.BlockSender.sendBlock (BlockSender.java:716) で
        org.apache.hadoop.hdfs.server.datanode.DataXceiver.readBlock (DataXceiver.java:551) で
        org.apache.hadoop.hdfs.protocol.datatransfer.Receiver.opReadBlock (Receiver.java:116) で
        org.apache.hadoop.hdfs.protocol.datatransfer.Receiver.processOp (Receiver.java:71) で
        org.apache.hadoop.hdfs.server.datanode.DataXceiver.run (DataXceiver.java:251) で
        java.lang.Thread.run(Thread.java:745) で

これらのログに関連するブロックは hbase rs と関係があることがわかりました。ログによると、rs はファイルを読み取ろうとします。

だから私の質問は、どの場合に rs がファイルを読み取ろうとするのですか? ログからわかるように、rs は 1 秒に 1 回新しい読み取り要求を開始しようとします。

アドバイスやアイデアは大歓迎です。

hbase は blk_1105510536_31776579 を繰り返し読み取ります! 「java.net.SocketException: Original Exception: java.io.IOException: Connection reset by peer」が原因で失敗した読み取りのすべて

2016-06-30 11:21:49,079 トレース org.apache.hadoop.hdfs.server.datanode.DataNode: DatanodeRegistration(10.130.1.29:50010、datanodeUuid=f3d795cc-2b3b-43b9-90c3-e4157c031d2c、infoPort=50075、infoSecurePort =0、ipcPort=50020、storageInfo=lv=-56;cid=CID-a99b693d-6f26-48fe-ad37-9f8162f70b22;nsid=920937379;c=0):BP-360285305-10.130.1.11-1444619256876 の提供中に例外を無視する:blk_1105510536_31776579 から /10.130.1.21:40140
2016-06-30 11:21:49,148 トレース org.apache.hadoop.hdfs.server.datanode.DataNode: DatanodeRegistration(10.130.1.29:50010、datanodeUuid=f3d795cc-2b3b-43b9-90c3-e4157c031d2c、infoPort=50075、infoSecurePort =0、ipcPort=50020、storageInfo=lv=-56;cid=CID-a99b693d-6f26-48fe-ad37-9f8162f70b22;nsid=920937379;c=0):BP-360285305-10.130.1.11-1444619256876 の提供中に例外を無視する:blk_1105510536_31776579 から /10.130.1.21:40154
2016-06-30 11:21:50,509 トレース org.apache.hadoop.hdfs.server.datanode.DataNode: DatanodeRegistration(10.130.1.29:50010、datanodeUuid=f3d795cc-2b3b-43b9-90c3-e4157c031d2c、infoPort=50075、infoSecurePort =0、ipcPort=50020、storageInfo=lv=-56;cid=CID-a99b693d-6f26-48fe-ad37-9f8162f70b22;nsid=920937379;c=0):BP-360285305-10.130.1.11-1444619256876 の提供中に例外を無視する:blk_1105510536_31776579 から /10.130.1.21:40157
2016-06-30 11:21:51,229 トレース org.apache.hadoop.hdfs.server.datanode.DataNode: DatanodeRegistration(10.130.1.29:50010、datanodeUuid=f3d795cc-2b3b-43b9-90c3-e4157c031d2c、infoPort=50075、infoSecurePort =0、ipcPort=50020、storageInfo=lv=-56;cid=CID-a99b693d-6f26-48fe-ad37-9f8162f70b22;nsid=920937379;c=0):BP-360285305-10.130.1.11-1444619256876 の提供中に例外を無視する:blk_1105510536_31776579 から /10.130.1.21:40168
2016-06-30 11:21:51,921 トレース org.apache.hadoop.hdfs.server.datanode.DataNode: DatanodeRegistration(10.130.1.29:50010、datanodeUuid=f3d795cc-2b3b-43b9-90c3-e4157c031d2c、infoPort=50075、infoSecurePort =0、ipcPort=50020、storageInfo=lv=-56;cid=CID-a99b693d-6f26-48fe-ad37-9f8162f70b22;nsid=920937379;c=0):BP-360285305-10.130.1.11-1444619256876 の提供中に例外を無視する:blk_1105510536_31776579 から /10.130.1.21:40181
2016-06-30 11:21:51,946 トレース org.apache.hadoop.hdfs.server.datanode.DataNode: DatanodeRegistration(10.130.1.29:50010、datanodeUuid=f3d795cc-2b3b-43b9-90c3-e4157c031d2c、infoPort=50075、infoSecurePort =0、ipcPort=50020、storageInfo=lv=-56;cid=CID-a99b693d-6f26-48fe-ad37-9f8162f70b22;nsid=920937379;c=0):BP-360285305-10.130.1.11-1444619256876 の提供中に例外を無視する:blk_1105510536_31776579 から /10.130.1.21:40187
2016-06-30 11:21:53,247 トレース org.apache.hadoop.hdfs.server.datanode.DataNode: DatanodeRegistration(10.130.1.29:50010、datanodeUuid=f3d795cc-2b3b-43b9-90c3-e4157c031d2c、infoPort=50075、infoSecurePort =0、ipcPort=50020、storageInfo=lv=-56;cid=CID-a99b693d-6f26-48fe-ad37-9f8162f70b22;nsid=920937379;c=0):BP-360285305-10.130.1.11-1444619256876 の提供中に例外を無視する:blk_1105510536_31776579 から /10.130.1.21:40188
4

1 に答える 1

0

問題は、読み取り前に DFSInputStream がシークすることが原因であることが判明しました。InputStream が過剰に読み取られた場合、新しいリクエストがターゲット pos から開始されます。

于 2016-07-08T08:28:58.933 に答える