問題タブ [fiware-cosmos]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
fiware - レポートを SpagoBI サーバーにデプロイできない
SpagoBI Server v5.1.0 で SpagoBIStudio 5.2.0 からのレポートを展開しようとしています。
レポートは SpagoBIStudio (私のコンピューターのローカル) で完全に機能し、SpagoBI サーバーの Web インターフェイスを使用してデータ ソースとデータ セットを正常に作成しました。
それにもかかわらず、「.rptdesign」ファイルの「展開」オプションをクリックすると、次のダイアログが表示され、「完了」ボタンが常に無効になります。
何らかの理由で正しいものを選択できますDatasource
が、Dataset
ドロップダウン リストは空で無効になっています。これが問題かもしれないと思います。
データ ソースは Cosmos への JDBC-Hive 接続であり、データセットはスタジオとサーバーの両方で HQL クエリとして定義されます。
SpagoBIStudio のドキュメントのデプロイ ウィザードにデータセットが表示されない理由を知っている人はいますか?
前もって感謝します。
hadoop - FIWARE-Cosmos のヘッドノードへの SSH アクセス
Hadoop/FIWARE-Cosmos でこのガイドに従っていますが、Hive 部分について質問があります。
古いクラスターの ( cosmos.lab.fiware.org
) ヘッドノードには SSH 経由でアクセスできますが、新しいクラスターにはアクセスできません。storage.cosmos.lab.fiware.org
と の両方を試しましcomputing.cosmos.lab.fiware.org
たが、接続できませんでした。
SSH 経由で接続しようとした私の意図は、Hive CLI を介してデータに対する Hive クエリをテストすることでした。computing.cosmos.lab.fiware.org
失敗した後、確認したところ、telnetの 10000 ポートに接続できました。Hive はそのポートを介して提供されていると思います。これが、新しいクラスターで Hive を使用できる唯一の方法ですか?
mapreduce - Cosmos でカスタム Mapreduce jar ファイルを使用できない
独自の Mapreduce jar ファイルを作成し、HDFS シェル コマンドを使用して Cosmos の古い Hadoop クラスターで正常にテストしました。次のステップは、新しいクラスターで同じ jar をテストすることだったので、それを 新しいクラスターの HDFS のホーム フォルダー (user/my.username) にアップロードしました。
以下の curl ポストを使用して Mapreduce ジョブを開始しようとすると、
私は得る:
{"成功":"false","エラー":255}
jar に対してさまざまなパス値を試しましたが、同じ結果が得られました。jar を別の場所にアップロードする必要がありますか、それとも必要な手順がいくつかありませんか?
fiware - Cosmos でのユーザー HDFS クォータ管理
私たちが知る限り、FIWARE Lab (cosmos.lab.fiware.org) の各 Cosmos ユーザーは、HDFS で最大 5GB を使用できます。
それにDSQuotaExceededException
もかかわらず、ジョブによって生成されたデータが 5 GB のクォータを超えていないにもかかわらず、map-reduce Hadoop ジョブを実行するとエラーが発生します。
map-reduce ジョブの実行中に HDFS の使用状況を監視すると、次の出力が得られます。
しばらくすると、実行が次の例外で終了します。
上記のログの最後にあるように、HDFS の最大使用量は 1.722.549.413 バイトと 201.060.881 バイトの空きクォータに相当します (参考文献によるhadoop fs -count -q
)。これは、使用可能なユーザー スペースの 5 GB を合計したものではありません。
さらに、取得されたスペースは残りの空きスペースと一致しません。
残りの割り当て容量はどのように計算されますか?
を回避する方法はありますDSQuotaExceededException
か?
前もって感謝します。
fiware - Python を使用した Fiware Cosmos Hive 接続
次の Python コードを使用して、Hive クエリを Fiware Cosmos に送信しようとしています。
しかし、私は次のエラーが発生します:
2 か月前、同じコードで接続できました。変更または解決策はありますか?
前もって感謝します。
hadoop - HDP 2.2 または 2.5 をインストールした FIWARE COSMOS
私が読んだことに基づいて、HDP 2.5 を使用する FIWARE COSMOS の必須ツールは次のとおりです。
- COSMOS (HDP 2.2 でテスト済みの共有 Hadoop 用 HAAS エンジン)
- HDPF ベースのストレージ クラスター (HDP 2.2 でテスト済み)
- Cosmos GUI のインストールと構成& GitHub
質問:
FIWARE チームは、Cosmos GUI を HDP 2.2 または 2.5 (HortonWorks Sandbox を使用してインストール) にインストールおよび構成する方法に関する指示を共有してください。
HDP 2.2 を使用した Light バージョンの Cosmos Big Data アーキテクチャを提供してください。
HDP (2.2 または 2.5) に HttpFS サーバーが付属しているかどうかわかりませんか?