問題タブ [fiware-cosmos]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
3 に答える
1017 参照

fiware - レポートを SpagoBI サーバーにデプロイできない

SpagoBI Server v5.1.0 で SpagoBIStudio 5.2.0 からのレポートを展開しようとしています。

レポートは SpagoBIStudio (私のコンピューターのローカル) で完全に機能し、SpagoBI サーバーの Web インターフェイスを使用してデータ ソースとデータ セットを正常に作成しました。
それにもかかわらず、「.rptdesign」ファイルの「展開」オプションをクリックすると、次のダイアログが表示され、「完了」ボタンが常に無効になります。

ここに画像の説明を入力

何らかの理由で正しいものを選択できますDatasourceが、Datasetドロップダウン リストは空で無効になっています。これが問題かもしれないと思います。
データ ソースは Cosmos への JDBC-Hive 接続であり、データセットはスタジオとサーバーの両方で HQL クエリとして定義されます。

SpagoBIStudio のドキュメントのデプロイ ウィザードにデータセットが表示されない理由を知っている人はいますか?

前もって感謝します。

0 投票する
1 に答える
68 参照

hadoop - FIWARE-Cosmos のヘッドノードへの SSH アクセス

Hadoop/FIWARE-Cosmos でこのガイドに従っていますが、Hive 部分について質問があります。

古いクラスターの ( cosmos.lab.fiware.org) ヘッドノードには SSH 経由でアクセスできますが、新しいクラスターにはアクセスできません。storage.cosmos.lab.fiware.orgと の両方を試しましcomputing.cosmos.lab.fiware.orgたが、接続できませんでした。

SSH 経由で接続しようとした私の意図は、Hive CLI を介してデータに対する Hive クエリをテストすることでした。computing.cosmos.lab.fiware.org失敗した後、確認したところ、telnetの 10000 ポートに接続できました。Hive はそのポートを介して提供されていると思います。これが、新しいクラスターで Hive を使用できる唯一の方法ですか?

0 投票する
1 に答える
57 参照

mapreduce - Cosmos でカスタム Mapreduce jar ファイルを使用できない

独自の Mapreduce jar ファイルを作成し、HDFS シェル コマンドを使用して Cosmos の古い Hadoop クラスターで正常にテストしました。次のステップは、新しいクラスターで同じ jar をテストすることだったので、それを 新しいクラスターの HDFS のホーム フォルダー (user/my.username) にアップロードしました。

以下の curl ポストを使用して Mapreduce ジョブを開始しようとすると、

私は得る:

{"成功":"false","エラー":255}

jar に対してさまざまなパス値を試しましたが、同じ結果が得られました。jar を別の場所にアップロードする必要がありますか、それとも必要な手順がいくつかありませんか?

0 投票する
1 に答える
80 参照

fiware - Cosmos でのユーザー HDFS クォータ管理

私たちが知る限り、FIWARE Lab (cosmos.lab.fiware.org) の各 Cosmos ユーザーは、HDFS で最大 5GB を使用できます。
それにDSQuotaExceededExceptionもかかわらず、ジョブによって生成されたデータが 5 GB のクォータを超えていないにもかかわらず、map-reduce Hadoop ジョブを実行するとエラーが発生します。

map-reduce ジョブの実行中に HDFS の使用状況を監視すると、次の出力が得られます。

しばらくすると、実行が次の例外で終了します。

上記のログの最後にあるように、HDFS の最大使用量は 1.722.549.413 バイトと 201.060.881 バイトの空きクォータに相当します (参考文献によるhadoop fs -count -q)。これは、使用可能なユーザー スペースの 5 GB を合計したものではありません。
さらに、取得されたスペースは残りの空きスペースと一致しません。

残りの割り当て容量はどのように計算されますか?
を回避する方法はありますDSQuotaExceededExceptionか?

前もって感謝します。

0 投票する
0 に答える
124 参照

fiware - Python を使用した Fiware Cosmos Hive 接続

次の Python コードを使用して、Hive クエリを Fiware Cosmos に送信しようとしています。

しかし、私は次のエラーが発生します:

2 か月前、同じコードで接続できました。変更または解決策はありますか?

前もって感謝します。

0 投票する
1 に答える
97 参照

hadoop - HDP 2.2 または 2.5 をインストールした FIWARE COSMOS

私が読んだことに基づいて、HDP 2.5 を使用する FIWARE COSMOS の必須ツールは次のとおりです。

質問:

  • FIWARE チームは、Cosmos GUI を HDP 2.2 または 2.5 (HortonWorks Sandbox を使用してインストール) にインストールおよび構成する方法に関する指示を共有してください。

  • HDP 2.2 を使用した Light バージョンの Cosmos Big Data アーキテクチャを提供してください。

  • HDP (2.2 または 2.5) に HttpFS サーバーが付属しているかどうかわかりませんか?

ここに画像の説明を入力

参照: BigData 分析 - インストールおよび管理ガイド