香港服务器中MapReduce的配置
在本教程中,我将介绍设置由Ubuntu Linux运行的Hadoop分布式文件系统支持的伪分布式单节点Hadoop集群所需的MapReduce系统步骤。
MapReduce对于我们新世界主机香港服务器的开发用户来说是十分有用的,所以小编今天就给大家介绍介绍如何在服务器上配置MapReduce,请大家仔细阅读。
MapReduce仅适用于Linux风格的操作系统,并且内置Hadoop Framework。为了安装Hadoop框架,我们需要执行以下步骤:
(1)验证JAVA安装
在安装Hadoop之前,必须先在系统上安装Java。使用以下命令检查系统上是否安装Java。
$ java -version
如果您的系统上已经安装了Java,您将看到以下响应:
java version "1.7.0_71"
Java(TM) SE Runtime Environment (build 1.7.0_71-b13)
Java HotSpot(TM) Client VM (build 25.0-b02, mixed mode)
如果您的系统上没有安装Java,请按照以下步骤进行操作:
安装Java
步骤1
下载Java下载后,您可以在"下载"文件夹中找到文件jdk-7u71-linux-x64.tar.gz。使用以下命令来提取jdk-7u71-linux-x64.gz的内容:
$ cd Downloads/
$ ls
jdk-7u71-linux-x64.gz
$ tar zxf jdk-7u71-linux-x64.gz
$ ls
jdk1.7.0_71 jdk-7u71-linux-x64.gz
步骤2
为了使Java可用于所有用户,您必须将其移动到"/ usr / local /"位置。 转到root并键入以下命令 :
$ su
password:
# mv jdk1.7.0_71 /usr/local/java
# exit
步骤3
要设置PATH和JAVA_HOME变量,请将以下命令添加到 / .bashrc文件中。
export JAVA_HOME=/usr/local/java
export PATH=$PATH:$JAVA_HOME/bin
将所有更改应用于当前运行的系统。
$ source / .bashrc
步骤4
使用以下命令配置Java替代方案 :
# alternatives --install /usr/bin/java java usr/local/java/bin/java 2
# alternatives --install /usr/bin/javac javac usr/local/java/bin/javac 2
# alternatives --install /usr/bin/jar jar usr/local/java/bin/jar 2
# alternatives --set java usr/local/java/bin/java
# alternatives --set javac usr/local/java/bin/javac
# alternatives --set jar usr/local/java/bin/jar
现在使用命令java -version从终端验证安装。
验证Hadoop安装
安装MapReduce之前,必须先在系统上安装Hadoop。 让我们使用以下命令验证Hadoop安装 :
$ hadoop version
如果您的系统上已经安装了Hadoop,那么您将收到以下响应:
Hadoop 2.4.1
Subversion https://svn.apache.org/repos/asf/hadoop/common -r 1529768
Compiled by hortonmu on 2013-10-07T06:28Z
Compiled with protoc 2.5.0
From source with checksum 79e53ce7994d1628b240f09af91e1af4
如果系统上未安装Hadoop,请继续执行以下步骤。
下载Hadoop
从Apache Software Foundation下载Hadoop 2.4.1,并使用以下命令提取其内容。
$ su
password:
# cd /usr/local
# wget http://apache.claz.org/hadoop/common/hadoop-2.4.1/
hadoop-2.4.1.tar.gz
# tar xzf hadoop-2.4.1.tar.gz
# mv hadoop-2.4.1/* to hadoop/
# exit
以伪分布式模式安装Hadoop
以下步骤用于在伪分布式模式下安装Hadoop 2.4.1。
步骤5 - 设置Hadoop
您可以通过将以下命令附加到?/ .bashrc文件来设置Hadoop环境变量。
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
将所有更改应用于当前运行的系统。
$ source / .bashrc
验证Hadoop安装
以下步骤用于验证Hadoop安装。
步骤6 - 名称节点设置
使用命令"hdfs namenode -format"设置namenode如下:
$ cd ~
$ hdfs namenode -format
Step7 Verifying Hadoop dfs
Execute the following command to start your Hadoop file system.
$ start-dfs.sh
步骤7 - 验证纱线脚本
以下命令用于启动纱线脚本。 执行此命令将启动您的纱线守护程序。
$ start-yarn.sh
预期产出如下:
starting yarn daemons
starting resourcemanager, logging to /home/hadoop/hadoop-
2.4.1/logs/yarn-hadoop-resourcemanager-localhost.out
localhost: starting node manager, logging to /home/hadoop/hadoop-
2.4.1/logs/yarn-hadoop-nodemanager-localhost.out
步骤8 - 在浏览器上访问Hadoop
访问Hadoop的默认端口号为50070.使用以下URL在浏览器上获取Hadoop服务。
HTTP://本地主机:50070/
步骤9 - 验证集群的所有应用程序
访问群集的所有应用程序的默认端口号为8088.使用以下URL来使用此服务。
HTTP://本地主机:8088/
本次讲解就到这里,希望大家踊跃的购买我们公司的香港服务器,更好的进行Mapreduce的安装与使用,相关的研究和实战。
如果还有什么不明确或者不懂的地方,欢迎来到新世界主机咨询了解,详情请咨询Skpey咨询:vpssj.net@hotmail.com, 。我们必将竭诚为您服务。