hadoop2.2.0偽分布式搭建
2024-06-28 13:22:21
供稿:網友
hadoop2.2.0偽分布式搭建1.準備linux環境 1.0點擊VMware快捷方式,右鍵打開文件所在位置 -> 雙擊vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 設置網段:192.168.68.0 子網掩碼:255.255.255.0 -> apply -> ok 回到windows --> 打開網絡和共享中心 -> 更改適配器設置 -> 右鍵VMnet1 -> 屬性 -> 雙擊IPv4 -> 設置windows的IP:192.168.68.1 子網掩碼:255.255.255.0 -> 點擊確定 在虛擬軟件上 --My Computer -> 選中虛擬機 -> 右鍵 -> settings -> network adapter -> host only -> ok 1.1修改主機名 vim /etc/sysconfig/network NETWORKING=yes HOSTNAME=drh01 (修改:注:修改表示有則修改,無則添加,下同) 1.2修改IP 兩種方式: 第一種:通過Linux圖形界面進行修改(簡單) 進入Linux圖形界面 -> 右鍵點擊右上方的兩個小電腦 -> 點擊Edit connections -> 選中當前網絡System eth0 -> 點擊edit按鈕 -> 選擇IPv4 -> method選擇為manual -> 點擊add按鈕 -> 添加IP:192.168.68.101 子網掩碼:255.255.255.0 網關:192.168.68.1 -> apply 第二種:修改配置文件方式(高大上的程序員,哈哈) vim /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE="eth0" BOOTPROTO="static" (修改) HWADDR="00:0C:29:3C:BF:E7" IPV6INIT="yes" NM_CONTROLLED="yes" ONBOOT="yes" TYPE="Ethernet" UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c" IPADDR="192.168.68.101" (修改) NETMASK="255.255.255.0" (修改) GATEWAY="192.168.68.1" (修改) 1.3修改主機名和IP的映射關系 vim /etc/hosts 192.168.68.101 drh01 1.4關閉防火墻 #查看防火墻狀態 service iptables status #關閉防火墻 service iptables stop #查看防火墻開機啟動狀態 chkconfig iptables --list #關閉防火墻開機啟動 chkconfig iptables off 1.5重啟Linux reboot2.安裝JDK 2.1上傳 2.2解壓jdk #創建文件夾 mkdir /usr/java #解壓 tar -zxvf jdk-7u71-linux-i586.tar.gz -C/home/drh/java/ 2.3將java添加到環境變量中 vim /etc/profile #在文件最后添加 export JAVA_HOME=/home/drh/java/jdk1.7.0_71 export PATH=$PATH:$JAVA_HOME/bin #刷新配置 source /etc/profile3.安裝Hadoop 3.1上傳hadoop安裝包 3.2解壓hadoop安裝包 mkdir /cloud #解壓到/cloud/目錄下 tar -zxvf hadoop-2.2.0.tar.gz -C /hadoop/ 3.3修改配置文件(5個) 第一個:hadoop-env.sh #在27行修改 export JAVA_HOME=/home/drh/java/jdk1.7.0_71 第二個:core-site.xml <configuration> <!-- 指定HDFS老大(namenode)的通信地址 --> <property> <name>fs.defaultFS</name> <value>hdfs://drh01:9000</value> </property> <!-- 指定hadoop運行時產生文件的存儲路徑 --> <property> <name>hadoop.tmp.dir</name> <value>/hadoop/hadoop-2.2.0/tmp</value> </property> </configuration> 第三個:hdfs-site.xml <configuration> <!-- 設置hdfs副本數量(默認為3) --> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> 第四個:mapred-site.xml.template 需要重命名: mv mapred-site.xml.template mapred-site.xml <configuration> <!-- 通知框架MR使用YARN --> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> 第五個:yarn-site.xml <configuration> <!-- reducer取數據的方式是mapreduce_shuffle --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration> 3.4將hadoop添加到環境變量 vim /etc/profile export JAVA_HOME=/home/drh/java/jdk1.7.0_71 export HADOOP_HOME=/hadoop/hadoop-2.2.0 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin source /etc/profile 3.5格式化HDFS(namenode)第一次使用時要格式化 hadoop namenode -format 3.6啟動hadoop 先啟動HDFS sbin/start-dfs.sh 再啟動YARN sbin/start-yarn.sh 3.7驗證是否啟動成功 使用jps命令驗證 27408 NameNode 28218 Jps 27643 SecondaryNameNode 28066 NodeManager 27803 ResourceManager 27512 DataNode http://192.168.68.101:50070 (HDFS管理界面) 在這個文件中添加linux主機名和IP的映射關系 C:/Windows/System32/drivers/etc/hosts 192.168.1.119 dhr01 http://192.168.68.101:8088 (MR管理界面)4.配置ssh免登陸 生成ssh免登陸密鑰 cd ~,進入到我的home目錄 cd .ssh/ ssh-keygen -t rsa (四個回車) 執行完這個命令后,會生成兩個文件id_rsa(私鑰)、id_rsa.pub(公鑰) 將公鑰拷貝到要免登陸的機器上 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 或 ssh-copy-id -i localhost (localhost代表ip)