Hadoop DFS の構成済み容量をデフォルトの 50GB から 100GB に増やすにはどうすればよいですか?
私の現在のセットアップは、120GB の 450GB が使用された centOS6 マシンで実行されている hadoop 1.2.1 です。「Hadoop the Definitive Guide 3'rd」で提案されている /conf を使用して、hadoop を psudodistributed モードに設定しました。hdfs-site.xml には、構成されたプロパティが 1 つしかありませんでした。
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
次の行はエラー フィードバックを返しませんでした... プロンプトに戻ります。
hadoop dfsadmin -setSpaceQuota 100g /tmp/hadoop-myUserID
私が再生成ループにいる場合(実行した
rm -rf /tmp/hadoop-myUserId
「ゼロから始める」試みで) setSpaceQuota のこのように見える成功は、私が実行した場合にのみ発生します。
start-all.sh
hadoop namenode -format
私の dfs 容量構成の失敗は、次のように表示されます。
hadoop dfsadmin -report
これは、同じ 50 GB の構成済み容量を示しています。
Hadoop 2.2 (現在は安定版リリース) が 100 GB の hdfs 構成容量を取得するための現在の最良の方法である場合は、喜んで Hadoop 2.2 に切り替えます。hdfs-site.xml の構成プロパティが必要なようです。これにより、空きパーティションをより多く使用できるようになります。