Comment mettre en place Hadoop sur le noeud noeud unique et multi?

Nous allons décrire l'installation Hadoop sur un seul nœud et le nœud à plusieurs. The Hadoop environment setup and configuration will be described in details. Vous devez d'abord télécharger le logiciel suivant (rpm).

  • Java JDK RPM
  • Apache Hadoop 0.20.204.0 RPM

A) Simple noeud du système Hadoop configuration

1) Installez JDK sur une Red Hat ou CentOS 5+ système.

$ ./jdk-6u26-linux-x64-rpm.bin.sh

Java est installé et configuré JAVA_HOME sur le répertoire / usr / java / default

2) Installer Apache Hadoop 0.20.204.

$ rpm-i hadoop-0.20.204.0-1.i386.rpm

3) Configuration Apache Hadoop configuration et de démarrage des processus Hadoop.

$ /usr / sbin / hadoop-setup-single-node.sh

L'assistant d'installation vous guidera à travers une liste de questions à la configuration Hadoop. Hadoop doit être exécuté après avoir répondu "Y" à toutes les questions.

Créer un compte utilisateur sur HDFS pour vous-même.

$ /usr / sbin / hadoop-create-user.sh-u $ USER

B) Multi-nœuds configuration Hadoop

1) Installez les deux JDK et Hadoop 0.20.204.0 RPM sur tous les nœuds

2) Générer la configuration hadoop sur tous les nœuds:

$ /usr / sbin / hadoop-setup-conf.sh \
  --NameNode-url = hdfs://${namenode}:9000/ \
  --JobTracker url = ${JobTracker}:9001 \
  --conf-dir = / etc / hadoop \
  --hdfs-dir = / var / lib / Hadoop / hdfs \
  --NameNode-dir = / var / lib / Hadoop / hdfs / NameNode \
  --mapred-dir = / var / lib / hadoop / mapred \
  --DataNode-dir = / var / lib / hadoop / hdfs / données \
  --log-dir = / var / log / hadoop \
  --auto

Où ${namenode} et ${JobTracker} devrait être remplacé par le nom d'hôte et namenode JobTracker.

3) Format namenode et la configuration par défaut HDFS mise en page.

$ /usr / sbin / hadoop-setup-hdfs.sh

4) Démarrez tous les noeuds de données.

$ /etc / init.d / hadoop-datanode début

5) Démarrer Job Tracker noeud.

$ /etc / init.d / hadoop-JobTracker début

6) Début nœuds trackers travail.

$ /etc / init.d / Hadoop-tâche tracker de démarreur

7) Créer un compte utilisateur sur HDFS pour vous-même.

$ /usr / sbin / hadoop-create-user.sh-u $ USER

C) Environnement d'installation pour Hadoop

$ vi ~ /. bash_profile

En chemin ensemble en mode insertion pour JAVA_HOME

Export JAVA_HOME

Enregistrer le fichier en cliquant sur esc:wq

Exécutez l'bash_profile.

$ source ~ /. bash_profile

Définir le chemin JAVA_HOME dans le fichier de l'environnement Hadoop

$ /etc / Hadoop / hadoop-env.sh

D) Configuration pour Hadoop

Utilisez ce qui suit:

conf / core-site.xml:

<configuration>
<propriété>
<nom>fs.default.name</nom>
<valeur>HDFS://localhost:9000</valeur>
</propriété>
</configuration>

conf / HDFS-site.xml:

<configuration>
<propriété>
<nom>dfs.replication</nom>
<valeur>1</valeur>
</propriété>
</configuration>

conf / mapred-site.xml:

<configuration>
<propriété>
<nom>mapred.job.tracker</nom>
<valeur>localhost:9001</valeur>
</propriété>
</configuration>

Il) Commandes Hadoop

$ hadoop
$ hadoop namenode format (Formatez la namenode, Si demander de
répondre à la presse "Y")
$ hadoop namenode (Démarrez le namenode)
$ trouver / -nommer démarrage dfs.sh (trouver le fichier dans le répertoire)
$ usr cd / sbin (Allez dans le répertoire correspondant directement)
$ démarrage dfs.sh
$ démarrage mapred.sh

$ hadoop fs-ls / (Indique le dossier racine HDFS)
$ hadooop fs-mis input/file01 / input/file01 (Copiez input/file01 local
HDFS root / input/file01)

Tagged on:
============================================= ============================================== Buy best TechAlpine Books on Amazon
============================================== ---------------------------------------------------------------- electrician ct chestnutelectric
error

Enjoy this blog? Please spread the word :)

Follow by Email
LinkedIn
LinkedIn
Share