安裝Hadoop教程 藍(lán)色字為輸入的命令,,所需要文件已經(jīng)打包好,。 注意:路徑記得配置你自己的路徑,,主機(jī)名也是你自己的。 一,、修改主機(jī)名(注意本教程主機(jī)名為 hadoop 如果不一樣記得以自己的為準(zhǔn)) cd /etc/sysconfig (進(jìn)入目錄) vim network (編輯地址,,主機(jī)名修改) cat network 修改主機(jī)名和IP地址具有映射關(guān)系 vim /etc/hosts (進(jìn)入目錄) 命令reboot,重新 二、正式開始安裝: 前面的上傳就不說了,,就從解壓開始,。 1. 首先,你的目錄要指定:/usr/local/soft/ (在這個(gè)目錄下解壓你的文件) 2. tar -zxvf hadoop的文件名(解壓命令) 3. 接下來你會(huì)用到 putty中文版1.0v.exe,,這個(gè)工具 4. 點(diǎn)擊,,輸入你虛擬機(jī)的IP即可連接 5. 然后進(jìn)入目錄: cd /usr/local/soft/hadoop-2.4.1/etc/hadoop 1). vi core-site.xml(修改文件) <configuration> <property> <name>fs.default.name</name> <value>hdfs://hadoop:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/soft/hadoop-2.4.1/tmp</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> 2). vi hdfs-site.xml(修改文件) <configuration> <property> <name>dfs.datanode.data.dir</name> <value>/usr/local/soft/hadoop-2.4.1/hdf/data</value> <final>true</final> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/soft/hadoop-2.4.1/hdf/name</value> <final>true</final> </property> </configuration> 3). mv mapred-site.xml.template mapred-site.xml 4). vi mapred-site.xml(修改文件) <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>hadoop:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>hadoop:19888</value> </property> <property> <name>mapred.job.tracker</name> <value>hadoop:9001</value> </property> </configuration> 5). vi yarn-site.xml(修改文件) <property> <name>yarn.resourcemanager.hostname</name> <value>hadoop</value> </property> <!-- reducer --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <value>org.apache.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>hadoop:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>hadoop:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>hadoop:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>hadoop:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>hadoop:8088</value> </property> 5.1) vi hadoop-env.sh 配置環(huán)境 export JAVA_HOME=/usr/jdk/jdk1.7.0_79 export HADOOP_HOME=/usr/local/soft/hadoop-2.4.1 export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib" 5.2)vi yarn-env.sh 配置環(huán)境 export HADOOP_YARN_USER=${HADOOP_YARN_USER:-yarn} export JAVA_HOME=/usr/jdk/jdk1.7.0_79 export HADOOP_HOME=/usr/local/soft/hadoop-2.4.1 export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib" 6). vi /etc/profile 把Hadoop的安裝目錄配置到環(huán)境變量中 7). 讓配置文件生效’執(zhí)行命令 source /etc/profile 8).前面沒有錯(cuò)誤之后再格式化,,切記 hdfs namenode -format 或者 hadoop namenode -format 實(shí)現(xiàn)格式化 9).首先執(zhí)行命令 start-dfs.sh 10). 啟動(dòng)Yarn,執(zhí)行命令start-yarn.sh 11).啟動(dòng)之后,,在任意目錄下執(zhí)行 jps 命令 12).首先在瀏覽器地址欄中輸入 http:// 192.168.43.170:50070 13).配置免密: 進(jìn)入: cd /root/.ssh 生成: ssh-keygen -t rsa 查看公鑰和私鑰內(nèi)容,,執(zhí)行命令 cat id_rsa 和 cat id_rsa.pub 完成!??! |
|