如何设置Hadoop的单节点和多节点?

我们将描述Hadoop的安装在单节点和多节点. The Hadoop environment setup and configuration will be described in details. 首先,你需要下载以下软件 (转).

  • Java JDK转的
  • Apache Hadoop的 0.20.204.0 RPM

一) 单节点系统Hadoop的安装

1) 在Red Hat或CentOS安装JDK 5+ 系统.

$ ./的jdk-6u26-linux的64-rpm.bin.sh

Java的安装和设置JAVA_HOME到/ usr / java / default文件

2) 安装Apache的Hadoop 0.20.204.

$ 的rpm-i的hadoop-0.20.204.0-1.i386.rpm的

3) 安装Apache Hadoop的配置和启动Hadoop进程.

$ /usr / sbin目录/ Hadoop的安装单node.sh的

安装向导将引导您完成设置Hadoop的一个问题清单. Hadoop的运行后对所有问题都回答'Y'.

HDFS为自己创建一个用户帐户.

$ /usr / sbin目录/的hadoop-CREATE-user.sh-U的$ USER

乙) 多节点Hadoop的安装

1) 同时安装了JDK和Hadoop 0.20.204.0 在所有节点上的RPM

2) 生成的hadoop配置的所有节点上:

$ /usr / sbin目录/ Hadoop的安装,conf.sh \
  --namenode-url=hdfs://${NameNode的}:9000/ \
  --jobtracker-url=${JobTracker的}:9001 \
  --conf-dir=/etc/hadoop \
  --hdfs-dir=/var/lib/hadoop/hdfs \
  --namenode-dir=/var/lib/hadoop/hdfs/namenode \
  --mapred-dir=/var/lib/hadoop/mapred \
  --datanode-dir=/var/lib/hadoop/hdfs/data \
  --log-dir=/var/log/hadoop \
  --auto

哪里 ${NameNode的} 和 ${JobTracker的} 应更换主机名NameNode和jobtracker.

3) 格式的NameNode和设置默认HDFS布局.

$ /usr / sbin目录/ Hadoop的安装,hdfs.sh

4) 启动所有的数据节点.

$ /etc / init.d中/ Hadoop的Datanode的开始

5) 开始工作跟踪节点.

$ /etc / init.d中/ Hadoop的jobtracker启动

6) 开始任务跟踪节点.

$ /etc / init.d中/ Hadoop的tasktracker启动

7) HDFS为自己创建一个用户帐户.

$ /usr / sbin目录/的hadoop-CREATE-user.sh-U的$ USER

Ç) 为Hadoop的安装环境

$ VI〜/。bash_profile文件

在插入模式下设定的路径JAVA_HOME

出口JAVA_HOME

保存文件,点击 ESC:WQ

运行的。bash_profile

$ 源〜/。bash_profile文件

在Hadoop的环境文件中设置JAVA_HOME路径

$ /ETC /在Hadoop / Hadoop的env.sh

ð) Hadoop的配置

使用下面的:

conf /中核心的site.xml:

<组态>
<财产>
<名称>fs.default.name</名称>
<值>HDFS://本地:9000</值>
</财产>
</组态>

conf /中HDFS的site.xml:

<组态>
<财产>
<名称>dfs.replication</名称>
<值>1</值>
</财产>
</组态>

conf /中mapred-site.xml的:

<组态>
<财产>
<名称>mapred.job.tracker</名称>
<值>本地:9001</值>
</财产>
</组态>

它) Hadoop的命令

$ Hadoop的
$ Hadoop的NameNode的格式 (格式化名称节点, 如果请求
回答按'Y')
$ Hadoop的NameNode的 (启动NameNode的)
$ 发现 / -名称开始dfs.sh (找到目录中的文件)
$ CD usr / sbin目录 (直接转到相应的目录)
$ 启动dfs.sh
$ 启动mapred.sh

$ Hadoop的FS-LS / (显示HDFS的根文件夹)
$ hadooop FS放input/file01 / input/file01 (复制本地input/file01
HDFS根/ input/file01的)

Tagged on:
============================================= ============================================== 在亚马逊上购买最佳技术书籍,en,电工CT Chestnutelectric,en
============================================== ---------------------------------------------------------------- electrician ct chestnutelectric
error

Enjoy this blog? Please spread the word :)

Follow by Email
LinkedIn
LinkedIn
Share