這篇文章主要介紹了hadoop2.2.0集群環(huán)境如何部署,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。
成都創(chuàng)新互聯(lián)專注于中大型企業(yè)的成都網(wǎng)站制作、網(wǎng)站設(shè)計、外貿(mào)網(wǎng)站建設(shè)和網(wǎng)站改版、網(wǎng)站營銷服務(wù),追求商業(yè)策劃與數(shù)據(jù)分析、創(chuàng)意藝術(shù)與技術(shù)開發(fā)的融合,累計客戶上1000家,服務(wù)滿意度達(dá)97%。幫助廣大客戶順利對接上互聯(lián)網(wǎng)浪潮,準(zhǔn)確優(yōu)選出符合自己需要的互聯(lián)網(wǎng)運用,我們將一直專注高端網(wǎng)站設(shè)計和互聯(lián)網(wǎng)程序開發(fā),在前進(jìn)的路上,與客戶一起成長!
1.windows下安裝vmware workstation 9 2.vm虛擬網(wǎng)絡(luò)編輯器選擇添加網(wǎng)絡(luò) VMnet0 NAT,子網(wǎng)IP 192.168.2.0 3.install debian6,最簡化安裝,不從鏡像下載安裝 4.安裝完成,以root身份登錄debian系統(tǒng) 5.apt-cache search openssh 6.apt-get install openssh-server 7.切換putty以root身份進(jìn)入debian 8.apt-get install gcc 9.apt-get install g++ 10.apt-get install sudo 11.groupadd hadoop 12.useradd -g hadoop hadoop 13.passwd hadoop 14.vi /etc/sudoers 添加 hadoop ALL=(ALL:ALL) ALL 15.mkdir /home/hadoop 16.chown hadoop:hadoop /home/hadoop 15.su – hadoop 16.ssh-keygen -t rsa -P "" 17.cat /home/hadoop/.ssh/id_rsa.pub >> /home/hadoop/.ssh/authorized_keys 18.chown hadoop:hadoop /home/hadoop/.ssh/authorized_keys 19.chmod 600 /home/hadoop/.ssh/authorized_keys 20.ssh localhost 21.上傳jdk-7u45-linux-i586.tar.gz到root目錄 22.上傳hadoop-2.2.0.tar.gz到root目錄 23.tar -zxvf /root/jdk-7u45-linux-i586.tar.gz -C /usr/java/ 24.tar -zxvf /root/hadoop-2.2.0.tar.gz -C /opt/ 25.mv /opt/hadoop-2.2.0/ /opt/hadoop 26.vi .bashrc 去掉export LS_OPTIONS...-1A' 前面的# 然后重新 su - root使設(shè)置生效 27.vi /etc/profile 添加 export JAVA_HOME=/usr/java/jdk1.7.0_45 export JRE_HOME=${JAVA_HOME}/jre export HADOOP_HOME=/opt/hadoop export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$HADOOP_HOME/bin:$PATH export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export HADOOP_CONF_DIR=$HADOOP_HOME/conf export YARN_CONF_DIR=$HADOOP_HOME/conf 然后重新 su - root使設(shè)置生效 $java查看是否生效 28.chown hadoop:hadoop /opt/hadoop 29.mkdir /opt/hadoop/conf 30.cp /opt/hadoop/etc/hadoop/* /opt/hadoop/conf 31.vi /opt/hadoop/conf/mapred-env.sh 增加export JAVA_HOME=/usr/java/jdk1.7.0_45 32.vi /opt/hadoop/conf/yarn-env.sh 增加export JAVA_HOME=/usr/java/jdk1.7.0_45 33.vi /opt/hadoop/conf/hadoop-env.sh 增加export JAVA_HOME=/usr/java/jdk1.7.0_45 34.vi /opt/hadoop/conf/slave 增加slave1 slave2 slave3 注意要換行 35.修改conf下的配置文件core-site、hdfs-site、mapred-site、yarn-env四個xml文件 36.vi /etc/hosts 增加 192.168.2.128 master 192.168.2.129 slave1 192.168.2.130 slave2 192.168.2.131 slave3 37./opt/hadoop/bin/hdfs namenode -format 38.到vmware中將master克隆成多個slave,這個例子里面是三個 39.啟動master/slave1-3四個虛擬機(jī) 40./opt/hadoop/sbin/start-dfs.sh (hadoop用戶操作) 41./opt/hadoop/sbin/start-yarn.sh (hadoop用戶操作) 42.http://192.168.2.128:50070 查看Live Nodes如果是3 啟動成功
感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享的“hadoop2.2.0集群環(huán)境如何部署”這篇文章對大家有幫助,同時也希望大家多多支持創(chuàng)新互聯(lián),關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,更多相關(guān)知識等著你來學(xué)習(xí)!
分享文章:hadoop2.2.0集群環(huán)境如何部署
分享URL:http://muchs.cn/article44/gepghe.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供外貿(mào)建站、網(wǎng)站排名、網(wǎng)站改版、App開發(fā)、微信小程序、動態(tài)網(wǎng)站
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)