一、准备编译软件
1.在官网下载jdk1.7、maven3.2.1、ant1.9.4,解压设置好环境变量就可以用。
环境变量设置如下:
(1)执行vim /etc/profile
(2)在文件尾部加入:
export JAVA_HOME=/home/spark/jdk1.7
export MAVEN_HOME=/home/spark/apache-maven-3.2.1
export ANT_HOME=/home/spark/apache-ant-1.9.4
export PATH=$JAVA_HOME/bin:$MAVEN_HOME/bin:$ANT_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
(3)执行source /etc/profile
2.在官网下载protobuf2.5.0解压后进入目录依次执行如下命令:
./configure
make
make check
make install
3.安装其它软件,我这里使用yum命令安装。
yum install cmake openssl-devel autoconf automake libtool (有些软件操作系统可能自带,安装时请使用rpm -qa命令查看)
二、下载Hadoop源码开始编译
1.登录官网:http://hadoop.apache.org/,找到下载链接,点进去下载即可。
2.解压编译:
tar zxvf hadoop-2.4.0-src.tar.gz
cd hadoop-2.4.0-src
mvn package -Pdist,native -DskipTests -Dtar
半个多小时后出现BUILD SUCCESS,即编译成功,可在hadoop-2.4.0-src/hadoop-dist/target文件夹中找到编译的文件。
三、参考文档
http://www.cnblogs.com/shishanyuan/p/4164104.html
http://www.aboutyun.com/thread-8130-1-1.html