問題タブ [ambari]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - Ambari-Server on Docker Java インストールの問題
今日、実質的に空のシステムにインストールした Ambari-Server で問題が発生しました。
これはDockerホストで実行されているため、自分で少し調査しました。したがって、IPTables の問題です。これは、Docker コンテナー内にあり、非特権コンテナーの NET_ADMIN 機能が原因です。非特権コンテナーは、ネットワーク構成を変更できません。
hadoop - Ambari、データノードで接続に失敗しました
クラスターに Hadoop を使用して Ambari をインストールしました。私はプロキシの背後にいますが、インストール中に問題はありません... Ambari ですべてのサービスを開始すると、次のエラーが発生します。
HDFS DataNode プロセス -> 接続に失敗しました: [Errno 111] 0.0.0.0:50010 への接続が拒否されました HDFS DataNode Web UI -> http://testslave3.ingc.com:50075への接続に失敗しました
いろいろ試しましたが、どこに問題があるのかわかりません…</p>
何か提案があれば…どうもありがとう:)
scala - Zeppelin クラスタ モードが Spark 1.2 Ambari、Hortonworks クラスタで動作しない
クラスターをデプロイしてサンプルの Spark/scala コードを実行しようとしていますが、デフォルトのパラメーターを使用してスタンドアロン モードで zeppelin を使用するとすべて正常に動作しますが、クラスター モードでは動作しません。Spark でspark-classおよびstart-master標準シェル ファイルを使用して手動で Spark クラスターを作成しようとした後、 spark://.. URL を Zeppelin に渡しましたが、コードを実行した後もさまざまなエキゾチック エラー (Java sys. process._ ライブラリがありません) しばらくすると、Spark ワーカーのステータスが Spark MasterUI で DEAD に変わります
また、zeppelin spark.home 変数に spark-URL の代わりにyarn-clientを入れようとしましたが、同様のエラーが発生してうまくいきませんでした。
Ambari クラスターに zeppelin をデプロイするのを手伝ってくれませんか? また、何が間違っているのか教えてください。
apache-spark - Ambari を介して HDP 2.3 で Spark が正しくインストールされていませんか?
Ambari 2.1.0 と HDP 2.3 を使用して、CentOS 6.6 マシンのローカル クラスターに HDFS、YARN、Spark などをインストールしようとしています。私はすでに HDP 2.2 からのアップグレードに失敗したので、最初からやり直す前にすべての HDP 2.2 パッケージと Ambari を消去しました。クラスタ インストール ウィザードのほとんどを問題なく実行できますが、「インストール、開始、およびテスト」フェーズで次のエラー メッセージが表示されます。
チェック スクリプトは、/usr/hdp/2.3.0.0-2557 で spark を探しているようです。これは、そのディレクトリに表示されるものです
文句を言っているスレーブマシンの1つ、スパークが「インストール」されているようです
この問題を解決する方法についてのアイデアはありますか?
hadoop - ambari を使用したサービスの削除中にエラーが発生しました
正しくインストールできなかったサービスを削除して、再インストールできるようにしようとしています。
アンバリ UI で削除するためのオプションが見つからなかったため、API を使用して削除しようとしています。ただし、次のエラー メッセージが表示されます。
IBM Open Platform v4 の dockerized バージョン、つまり IOP_v4000_20150.zip を使用しています。
アンバリのバージョンは次のとおりです。
以下は、GET コマンドからの出力です。
質問: spark を削除して再インストールするにはどうすればよいですか?