0

HBase テーブルには、info 用の 'i:*' と file:blob 用の 'f:b' という 2 つの列ファミリがあります。値に画像を保存していますが、一部の画像はほぼ 12MB です。

Java で問題なくファイルをロード/挿入できますが、f:b ファミリ値 (ブロブ) のスキャンを介してファイルを取得しようとするとすぐに、スキャナーがタイムアウトするまで待機し、クラスター上のすべてのリージョン サーバーが停止します。順番に死ぬ(私は20ノードのクラスタを持っています)。私のスキャナーが無力なノードに何らかの形で与えるこの疑似ウイルスを止める唯一の方法は、テーブルを完全に削除することです (またはそう思われます)。

Cloudera EDH '0.98.6-cdh5.2.0' を使用しています

残念ながら、私のクライアントはタイムアウトするだけなので、重要な例外はありません。ノード ログから取得できるのは以下のとおりです。

2014-10-27 21:47:36,106 WARN org.apache.hadoop.hbase.backup.HFileArchiver: Failed to archive class org.apache.hadoop.hbase.backup.HFileArchiver$FileablePath, file:hdfs://nameservice1/hbase/data/default/RASTER/92ceb2d86662ad6d959f4cc384229e0f/recovered.edits/0000000000000000029.temp
java.io.FileNotFoundException: File hdfs://nameservice1/hbase/data/default/RASTER/92ceb2d86662ad6d959f4cc384229e0f/recovered.edits/0000000000000000029.temp does not exist.
       at org.apache.hadoop.hdfs.DistributedFileSystem.listStatusInternal(DistributedFileSystem.java:658)
        at org.apache.hadoop.hdfs.DistributedFileSystem.access$600(DistributedFileSystem.java:104)
 at org.apache.hadoop.hdfs.DistributedFileSystem$14.doCall(DistributedFileSystem.java:716)
   at org.apache.hadoop.hdfs.DistributedFileSystem$14.doCall(DistributedFileSystem.java:712)
     at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
  at org.apache.hadoop.hdfs.DistributedFileSystem.listStatus(DistributedFileSystem.java:712)
   at org.apache.hadoop.hbase.backup.HFileArchiver$FileablePath.getChildren(HFileArchiver.java:628)
      at org.apache.hadoop.hbase.backup.HFileArchiver.resolveAndArchive(HFileArchiver.java:346)
        at org.apache.hadoop.hbase.backup.HFileArchiver.resolveAndArchive(HFileArchiver.java:347)
  at org.apache.hadoop.hbase.backup.HFileArchiver.resolveAndArchive(HFileArchiver.java:284)
    at org.apache.hadoop.hbase.backup.HFileArchiver.archiveRegion(HFileArchiver.java:137)
  at org.apache.hadoop.hbase.backup.HFileArchiver.archiveRegion(HFileArchiver.java:75)
 at org.apache.hadoop.hbase.master.CatalogJanitor.cleanParent(CatalogJanitor.java:333)
       at org.apache.hadoop.hbase.master.CatalogJanitor.scan(CatalogJanitor.java:254)
    at org.apache.hadoop.hbase.master.CatalogJanitor.chore(CatalogJanitor.java:101)
        at org.apache.hadoop.hbase.Chore.run(Chore.java:87)
        at java.lang.Thread.run(Thread.java:745)
2014-10-27 21:47:36,129 WARN org.apache.hadoop.hbase.backup.HFileArchiver: Failed to complete archive of: [class org.apache.hadoop.hbase.backup.HFileArchiver$FileablePath, file:hdfs://nameservice1/hbase/data/default/RASTER/92ceb2d86662ad6d959f4cc384229e0f/recovered.edits/0000000000000000029.temp]. Those files are still in the original location, and they may slow down reads.
2014-10-27 21:47:36,129 WARN org.apache.hadoop.hbase.master.CatalogJanitor: Failed scan of catalog table
java.io.IOException: Received error when attempting to archive files ([class org.apache.hadoop.hbase.backup.HFileArchiver$FileablePath, file:hdfs://nameservice1/hbase/data/default/RASTER/92ceb2d86662ad6d959f4cc384229e0f/f, class org.apache.hadoop.hbase.backup.HFileArchiver$FileablePath, file:hdfs://nameservice1/hbase/data/default/RASTER/92ceb2d86662ad6d959f4cc384229e0f/i, class org.apache.hadoop.hbase.backup.HFileArchiver$FileablePath, file:hdfs://nameservice1/hbase/data/default/RASTER/92ceb2d86662ad6d959f4cc384229e0f/recovered.edits]), cannot delete region directory. 
        at org.apache.hadoop.hbase.backup.HFileArchiver.archiveRegion(HFileArchiver.java:148)
      at org.apache.hadoop.hbase.backup.HFileArchiver.archiveRegion(HFileArchiver.java:75)
     at org.apache.hadoop.hbase.master.CatalogJanitor.cleanParent(CatalogJanitor.java:333)
   at org.apache.hadoop.hbase.master.CatalogJanitor.scan(CatalogJanitor.java:254)
        at org.apache.hadoop.hbase.master.CatalogJanitor.chore(CatalogJanitor.java:101)
    at org.apache.hadoop.hbase.Chore.run(Chore.java:87)
    at java.lang.Thread.run(Thread.java:745)
2014-10-27 21:47:36,146 INFO org.apache.hadoop.hbase.master.SplitLogManager: Done splitting /hbase/splitWAL/WALs%2Finsight-staging-slave019.spadac.com%2C60020%2C1414446135179-splitting%2Finsight-staging-slave019.spadac.com%252C60020%252C1414446135179.1414446317771

ここにテーブルをスキャンするための私のコードがあります

    try {
      if (hBaseConfig == null) {
        hBaseConfig = HBaseConfiguration.create();
        hBaseConfig.setInt("hbase.client.scanner.timeout.period", 1200000);
        hBaseConfig.set("hbase.client.keyvalue.maxsize", "0");
        hBaseConfig.set("hbase.master", PROPS.get().getProperty("hbase.master"));
        hBaseConfig.set("hbase.zookeeper.quorum", PROPS.get().getProperty("zks"));
        hBaseConfig.set("zks.port", "2181");
        table = new HTable(hBaseConfig, "RASTER");
      }

      Scan scan = new Scan();
      scan.addColumn("f".getBytes(), "b".getBytes());
      scan.addColumn("i".getBytes(), "name".getBytes());
      ResultScanner scanner = table.getScanner(scan);

      for (Result rr = scanner.next(); rr != null; rr = scanner.next()) {
/*I NEVER EVEN GET HERE IF I SCAN FOR 'f:b'*/
        CellScanner cs = rr.cellScanner();
        String name = "";
        byte[] fileBs = null;
        while (cs.advance()) {

          Cell current = cs.current();

          byte[] cloneValue = CellUtil.cloneValue(current);
          byte[] cloneFamily = CellUtil.cloneFamily(current);
          byte[] qualBytes = CellUtil.cloneQualifier(current);
          String fam = Bytes.toString(cloneFamily);
          String qual = Bytes.toString(qualBytes);
          if (fam.equals("i")) {

            if (qual.equals("name")) {
              name = Bytes.toString(cloneValue);
            }
          } else if (fam.equals("f") && qual.equals("b")) {
            fileBs = cloneValue;
          }

        }

        OutputStream bof = new FileOutputStream("c:\\temp\\" + name);
        bof.write(fileBs);
        break;

      }
    } catch (IOException ex) {
      //removed
    }

ありがとう 大きなブロブのスキャンが私のクラスターを全滅させる理由を誰か知っていますか? 私はそれを理解できないだけでばかげていると確信しています。

4

1 に答える 1

0

これが問題だったようです

hBaseConfig.set("hbase.client.keyvalue.maxsize", "0");

「50」に変更したところ、動作するようになりました。

于 2014-10-31T12:53:23.937 に答える