ローカル マシンのテキスト ファイルをリモート Hbase にロードする方法。上記のコマンドを参照しましたが、コマンドと本当に混乱しています
hadoop jar <path to hbase jar> importtsv -Dimporttsv.columns=a,b,c '-Dimporttsv.separator=,' <tablename> <inputdir>
テキスト ファイルのパスをアドレス指定する場所と、テーブル名と列はテキスト ファイルになります。テキストファイルには、作成ステートメントとプットステートメントがあり、そのファイルをHbaseシェルにロードして実行する方法があります。誰かがそれを知っているなら、私の混乱を打破してください.
スクリプト ファイル:
create 'blogpostss', 'post', 'image'
Run in HBase shell the following to add some data:
put 'blogpostss', 'post1', 'post:title', 'Hello World'
put 'blogpostss', 'post1', 'post:author', 'The Author'
put 'blogpostss', 'post1', 'post:body', 'This is a blog post'
put 'blogpostss', 'post1', 'image:header', 'image1.jpg'
put 'blogpostss', 'post1', 'image:bodyimage', 'image2.jpg'
put 'blogpostss', 'post2', 'post:title', 'Another Post'
put 'blogpostss', 'post2', 'post:title', 'My Second Post'
put 'blogpostss', 'post1', 'post:body', 'This is an updated blog postss'
Following commands retrieve data:
get 'blogpostss', 'post1'
get 'blogpostss', 'post1', { COLUMN => 'post:title' }
get 'blogpostss', 'post1', { COLUMN => 'post:title', VERSIONS => 4 }
get 'blogpostss', 'post1', { COLUMNS => 'post:body', VERSIONS => 3 }
get 'blogpostss', 'post2'
get 'blogpostss', 'post2', { COLUMN => 'post:title' }
get 'blogpostss', 'post2', { COLUMN => 'post:title', VERSIONS => 4 }