0

Ambari 2.1.0 と HDP 2.3 を使用して、CentOS 6.6 マシンのローカル クラスターに HDFS、YARN、Spark などをインストールしようとしています。私はすでに HDP 2.2 からのアップグレードに失敗したので、最初からやり直す前にすべての HDP 2.2 パッケージと Ambari を消去しました。クラスタ インストール ウィザードのほとんどを問題なく実行できますが、「インストール、開始、およびテスト」フェーズで次のエラー メッセージが表示されます。

Traceback (most recent call last):
  File "/var/lib/ambari-agent/cache/stacks/HDP/2.0.6/hooks/after-INSTALL/scripts/hook.py", line 38, in <module>
    AfterInstallHook().execute()
  File "/usr/lib/python2.6/site-packages/resource_management/libraries/script/script.py", line 218, in execute
    method(env)
  File "/var/lib/ambari-agent/cache/stacks/HDP/2.0.6/hooks/after-INSTALL/scripts/hook.py", line 35, in hook
    link_configs(self.stroutfile)
  File "/var/lib/ambari-agent/cache/stacks/HDP/2.0.6/hooks/after-INSTALL/scripts/shared_initialization.py", line 91, in link_configs
    _link_configs(k, json_version, v)
  File "/var/lib/ambari-agent/cache/stacks/HDP/2.0.6/hooks/after-INSTALL/scripts/shared_initialization.py", line 156, in _link_configs
    conf_select.select("HDP", package, version)
  File "/usr/lib/python2.6/site-packages/resource_management/libraries/functions/conf_select.py", line 241, in select
    shell.checked_call(get_cmd("set-conf-dir", package, version), logoutput=False, quiet=False, sudo=True)
  File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 70, in inner
    result = function(command, **kwargs)
  File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 92, in checked_call
    tries=tries, try_sleep=try_sleep)
  File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 140, in _call_wrapper
    result = _call(command, **kwargs_copy)
  File "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", line 291, in _call
    raise Fail(err_msg)
resource_management.core.exceptions.Fail: Execution of 'conf-select set-conf-dir --package spark --stack-version 2.3.0.0-2557 --conf-version 0' returned 1. spark not installed or incorrect package name

チェック スクリプトは、/usr/hdp/2.3.0.0-2557 で spark を探しているようです。これは、そのディレクトリに表示されるものです

ls /usr/hdp/2.3.0.0-2557/
etc  hadoop  hadoop-hdfs  hadoop-mapreduce  hadoop-yarn  ranger-hdfs-plugin  ranger-yarn-plugin  usr  zookeeper

文句を言っているスレーブマシンの1つ、スパークが「インストール」されているようです

# yum list installed | grep spark
spark_2_3_0_0_2557.noarch
spark_2_3_0_0_2557-master.noarch
spark_2_3_0_0_2557-python.noarch
spark_2_3_0_0_2557-worker.noarch

この問題を解決する方法についてのアイデアはありますか?

4

1 に答える 1

0

レベル 2.3.0.0-2557 のコンポーネントもあれば、2.3.2.0-2621 のコンポーネントもあります。

私の場合、Zookeeperに問題があったので、/usr/hdp/currentリンクしました

zookeeper-client -> /usr/hdp/2.3.0.0-2557/zookeeper
zookeeper-server -> /usr/hdp/2.3.0.0-2557/zookeeper

これにより、インストールの問題は修正されましたが、サービスは開始されませんでした。

于 2015-08-28T20:50:50.657 に答える