問題タブ [rhadoop]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
r - R から HBase にデータを挿入する際のエラー
RHBase (RHadoop スイート) を使用して R から HBase に接続するサンプル コードがあります。ある環境では機能しますが、別の環境では機能しません。
コード:
これはかなり単純なコードです。このエラーを再現するためにこれを書きました。
環境 1:
Ubuntu 12.04 LTS R: 3.0 Thrift 0.9.0 Java (必要な場合): OpenJDK 1.6
==> このコードはこの環境で正常に動作します。それは私のローカルマシンです。
環境 2 Ubuntu 12.04 LTS R: 2.15.2 Thrift 0.9.0 Java (必要な場合): Oracle Java 1.7
==> これはリモート マシンです。次のエラーがスローされます。
両方のインスタンスで、リモートの場所にある HBase (0.94.7) に接続しています。
この問題の原因についてのアイデアはありますか? 私は Hbase と RHadoop スイートにかなり慣れていないので、素朴な質問を許してください! また、追加情報が必要な場合は教えてください。
編集: Cloudera ディストリビューションではなく、HBase のスタンドアロン インスタンスがあります。RHbase の要求に応じて、ソースから thrift をビルドしました
r - R で Hadoop ストリーミングが失敗する
RHadoop のサンプル スクリプトを実行してシステムをテストし、次のコマンドを使用しています。
しかし、それは私に以下のようなエラーを与えています。
ここで何が間違っている可能性があるかについてのリード
windows - rhdfs が接続されていない
HADOOP_CMD (hadoop パス) 変数を設定しましたが、見つからないと言ってパスを取得していません
システム環境変数とcygwinでHADOOP_CMDを定義しました
どこが間違っていますか、この方向で助けてください、ありがとう。
r - R 3.0.1 で install.packages("methods") が失敗しました
R 3.0.1 に R パッケージの「メソッド」をインストールしようとしています。
R 3.0.1 に「メソッド」をインストールする方法はありますか、それとも R 3.0.0 に切り替える必要がありますか?
ありがとうございました
r - 通常の R コマンドで HDFS ファイル パス (インストールされたパッケージ: rmr2、rhdfs) にアクセスする方法は?
HDFS に zip ファイルがあります。R で mapreduce プログラムを作成します。R には、zip ファイルを解凍するコマンドがあります。
しかし、ここではHDFSファイルパスを受け入れていませんか? のようにしてみました
それはエラーを投げています..
私のRコマンドにHDFSファイルパスを与える方法はありますか?
linux - CentOS に R mapreduce rmr2 をインストールします。
centos にrmr2をインストールする際に問題が発生しています。yum コマンドはデフォルトで R バージョン 2.15 をインストールし、rmr2 はR 3.0 以降とのみ互換性のある Rcpp ライブラリに依存しています。これは私のOSのバージョンです:
install.packages('Rcpp') return ERROR: this R is version 2.15.2, package 'Rcpp' requires R >= 3.0.0
. CentOS のダウンロードページで R 3.0 を見つけることができません。
yum install R
戻り値 :
mapreduce - 「NULL キーを使用して .dfs 引数を keyval に変換しています」は通常、RHadoop で失敗したマップ タスクの致命的な警告ですか?
次のような警告を返しても機能する RHadoop プログラムをいくつか作成しました。
to.dfsでデータを入力するとき。
ただし、一部のプログラムは、警告以外の警告なしで致命的に失敗します。
に続く
NULL キーの警告は通常、Map タスクの失敗に関連付けられていますか?
標準的なアドバイスは stderr を確認することですが、失敗したジョブの stderr は空です! ゼロ行、ゼロ文字。