問題タブ [biginsights]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
88 参照

hadoop - アプリにバインドしようとすると、Bluemix の BigInsights サービスが表示されない

Bluemix で 4 つのサービスを作成しましたが、そのうちの 1 つが「Big Insights for Apache Hadoop」です。これを新しく作成したアプリにバインドしようとすると、この BigInsights サービスが表示されませんか? 「新しく作成したアプリにサービスを追加」ウィンドウで?

0 投票する
0 に答える
1798 参照

python - Python ワーカーからのエラー: /usr/bin/python pyspark という名前のモジュールがありません

Yarn で Pyspark を実行しようとしていますが、コンソールでコマンドを入力すると、次のエラーが表示されます。

ローカル モードと糸モードの両方で、Spark で scala シェルを実行できます。Pyspark はローカル モードでは問題なく動作しますが、糸モードでは動作しません。

OS:RHEL6.x

Hadoop ディストリビューション: IBM BigInsights 4.0

スパークバージョン:1.2.1

警告 scheduler.TaskSetManager: ステージ 0.0 でタスク 0.0 が失われました (TID 0、作業): org.apache.spark.SparkException: Python ワーカーからのエラー: /usr/bin/python: pyspark PYTHONPATH という名前のモジュールはありません: /mnt/sdj1/ hadoop/yarn/local/filecache/13/spark-assembly.jar (私のコメント: このパスは Linux ファイルシステムには存在しませんが、論理データ ノード) org.apache.spark.api.python.PythonWorkerFactory.startDaemon(PythonWorkerFactory.scala:163) の java.io.DataInputStream.readInt(DataInputStream.java:392) での java.io.EOFException (org.apache.spark.api で)。 python.PythonWorkerFactory.createThroughDaemon(PythonWorkerFactory.scala:86) org.apache.spark.api.python.PythonWorkerFactory.create(PythonWorkerFactory.scala:62) org.apache.spark.SparkEnv.createPythonWorker(SparkEnv.scala:102) org.apache.spark.api.python.PythonRDD.compute(PythonRDD.scala:70) で org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:280) で org.apache.spark.rdd.RDD org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:61) の .iterator(RDD.scala:247) org.apache.spark.scheduler.Task.run(Task.scala:56) org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:200) で java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) で java.util.concurrent.ThreadPoolExecutor$Worker で.run(ThreadPoolExecutor.java:615) at java.lang.Thread.run(Thread.java:745)

次のように、エクスポート コマンドを使用して SPARK_HOME と PYTHONPATH を設定しました。

誰かがこれで私を助けてくれますか?

答え:

掘り下げた後、pyspark にはそのままで Big Insights 4.0 にいくつかの問題があることがわかりました。BI 4.1 にアップグレードすることが提案されました。

0 投票する
1 に答える
6235 参照

apache-pig - PigLatin の不一致入力 ';' LEFT_PAREN を期待 (IBM BIGINSIGHTS)

素朴な質問で申し訳ありません。私は初心者です。Pig スクリプトがあり、以下のエラーが発生します。

これは私のsciptがどのように見えるかです:

スタックトレースは次のとおりです。

0 投票する
1 に答える
682 参照

mapreduce - sqoop ジョブの実行中の実行時例外

biginsights で sqoop ジョブを実行しようとしています。Oracle db から hdfs にデータをインポートしています。以下は、マッパーの実行を開始し、しばらくして停止する sqoop コマンドです。

以下はエラーです:

この問題を解決するために私を助けてください。前もって感謝します。

0 投票する
1 に答える
866 参照

hdfs - Sqoop eval は機能していますが、sqoop import でエラーが発生しています

sqoop eval を実行すると、出力が得られます。しかし、sqoop import を実行すると、次のエラーが表示されます

ビッグインサイトを使用しています。誰でも何が問題なのか教えてください。

0 投票する
0 に答える
172 参照

hadoop - Flume 1.5 で圧縮ファイルを処理/hdfs シンクに転送できます

Flume 1.5 は、圧縮ファイルを hdfs シンクに処理/転送できます。私はblobdeserializerとcompressedstreamとコーデックをgzipとして試しました。私が使用した設定オプションは次のとおりです