Hadoop Hive Scoop と PIG のインストール
手順に従って、上記のアプリケーションをインストールします。注 : 追加のユーザーは必要ありません。既存のシステムで作業することができます。
Haddop 2.7.1、PIG、Sqoop、Hive をダウンロード
http://www.us.apache.org/dist/hadoop/common/hadoop-2.7.1/hadoop-2.7.1.tar.gz
http://www.us.apache.org/dist/pig/pig-0.13.0/pig-0.13.0.tar.gz
http://www.us.apache.org/dist/sqoop/1.4.6/ sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz
http://www.eu.apache.org/dist/hive/hive-1.2.1/apache-hive-1.2.1-bin.tar.gz
/home/mypc/hadoop-soft というフォルダーに解凍します --> cd hadoop-soft
hive --> /home/mypc/hadoop-soft/hive
sqoop --> /home/mypc/hadoop-soft/sqoop
pig --> /home/mypc/hadoop-soft/pig
hadoop --> /home/mypc/hadoop-soft/hadoop
これらのフォルダーにサブフォルダーを作成せず、それぞれの bin フォルダーを表示できることを確認してください。
これらのフォルダを /usr/lib に移動しましょう
sudo mkdir /usr/lib/hadoop
sudo mv sqoop/ /usr/lib/hadoop/
sudo mv pig/ /usr/lib/hadoop/
sudo mv hive/ /usr/lib/hadoop/
sudo mv hadoop-2.6/ /usr/lib/hadoop/
.bashrc ファイルを編集してパスを追加します: ファイルの最後に次の行を追加します
ここで更新しているので、 Java_path ステートメントがあれば削除します。
Java がインストールされていて、以下の場所に存在するかどうかを確認します。はいの場合は問題ありません。そうでない場合は、google install java n ubuntu が必要です
sudo gedit ~/.bashrc
.bashrc の最後に次の行を追加します
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
export HADOOP_HOME=/usr/lib/hadoop/hadoop-2.6
export HIVE_HOME=/usr/lib/hadoop/hive
export PIG_HOME=/usr/lib/hadoop/pig
export SQOOP_HOME=/usr/lib/hadoop/sqoop
export HADOOP_MAPRED_HOME=/usr/lib/hadoop/hadoop
export HADOOP_COMMON_HOME=/usr/lib/hadoop/hadoop
export HADOOP_HDFS_HOME=/usr/lib/hadoop/hadoop
export HADOOP_YARN_HOME=/usr/lib/hadoop/hadoop
export HADOOP_CONF_DIR=/usr/lib/hadoop/hadoop/etc/hadoop
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin::$PIG_HOME/bin:$HIVE_HOME/bin:$SQOOP_HOME/bin
このファイルを保存して閉じます。これで、更新が反映されるように実行することができます。
source ~/.bashrc
6. namenode と datanode の 2 つのディレクトリを作成します。
cd /usr/lib
sudo mkdir hdfs
cd hdfs
sudo mkdir namenode
sudo mkdir datanode
sudo chmod 777 -R namenode
sudo chmod 777 -R datanode
$HADOOP_HOME に移動し、いくつかのファイルを編集します。
cd $HADOOP_HOME
cd etc/hadoop/
A. sudo gedit yarn-site.xml : これらの行を < configuration> < /configuration> 内に追加します
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
B. sudo gedit core-site.xml : これらの行を < configuration> < /configuration> 内に追加します
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
C. sudo gedit hdfs-site.xml : <~configuration> <~/configuration> 内にこれらの行を追加します
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/lib/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/lib/hdfs/datanode</value>
</property>
D. sudo gedit mapred-site.xml :これらの行を追加します
<?xml version="1.0"?>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
注:これは新しいファイルになります。- 保存して閉じます。
namenode のフォーマット
hdfs namenode -format
/usr/lib/hdfs に移動し、開始スクリプトと停止スクリプトを作成します
cd /usr/lib/hdfs
sudo mkdir scripts
sudo chmod 777 -R scripts
cd scripts
sudo gedit hadoopstart.sh
これらの行を書きます
/usr/lib/hadoop/hadoop-2.6/sbin/hadoop-daemon.sh start namenode
/usr/lib/hadoop/hadoop-2.6/sbin/hadoop-daemon.sh start datanode
/usr/lib/hadoop/hadoop-2.6/sbin/yarn-daemon.sh start resourcemanager
/usr/lib/hadoop/hadoop-2.6/sbin/yarn-daemon.sh start nodemanager
/usr/lib/hadoop/hadoop-2.6/sbin/mr-jobhistory-daemon.sh start historyserver
保存して閉じます。
sudo gedit hadoopstop.sh
これらの行を書きます
/usr/lib/hadoop/hadoop-2.6/sbin/hadoop-daemon.sh stop namenode
/usr/lib/hadoop/hadoop-2.6/sbin/hadoop-daemon.sh stop datanode
/usr/lib/hadoop/hadoop-2.6/sbin/yarn-daemon.sh stop resourcemanager
/usr/lib/hadoop/hadoop-2.6/sbin/yarn-daemon.sh stop nodemanager
/usr/lib/hadoop/hadoop-2.6/sbin/mr-jobhistory-daemon.sh stop historyserver
-保存して閉じます。
- これらのファイルを実行して、ローカル モードで Hadoop を開始および停止します。
始めること
sh /usr/lib/hdfs/scripts/hadoopstart.sh
止まる
sh /usr/lib/hdfs/scripts/hadoopstop.sh
Hadoop が実行されているかどうかを確認します: 開始スクリプトの実行後
hadoop version
hadoopp fs -ls /
Open http://localhost:50070 to see if name node is running.
を使用してさまざまなサービスを実行します:ターミナル上
Pig
sqoop
hive