久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

Hadoop安裝教程總結(jié)

 夢(mèng)塵jasen 2019-11-09

安裝Hadoop教程

藍(lán)色字為輸入的命令,,所需要文件已經(jīng)打包好,。

注意:路徑記得配置你自己的路徑,,主機(jī)名也是你自己的。

一,、修改主機(jī)名(注意本教程主機(jī)名為  hadoop   如果不一樣記得以自己的為準(zhǔn)

cd /etc/sysconfig  (進(jìn)入目錄)

vim network   (編輯地址,,主機(jī)名修改)

cat network  

修改主機(jī)名和IP地址具有映射關(guān)系

vim /etc/hosts (進(jìn)入目錄)

命令reboot,重新

二、正式開始安裝:

前面的上傳就不說了,,就從解壓開始,。

1.  首先,你的目錄要指定:/usr/local/soft/  (在這個(gè)目錄下解壓你的文件)

2.  tar -zxvf hadoop的文件名(解壓命令)

3.  接下來你會(huì)用到  putty中文版1.0v.exe,,這個(gè)工具

4.  點(diǎn)擊,,輸入你虛擬機(jī)的IP即可連接

5.  然后進(jìn)入目錄:

cd /usr/local/soft/hadoop-2.4.1/etc/hadoop

1).     vi core-site.xml(修改文件)

<configuration>

     <property>

             <name>fs.default.name</name>

             <value>hdfs://hadoop:9000</value>

     </property>

     <property>

             <name>hadoop.tmp.dir</name>

             <value>file:/usr/local/soft/hadoop-2.4.1/tmp</value>

     </property>

     <property>

             <name>dfs.replication</name>

             <value>1</value>

     </property>

</configuration>

2).     vi hdfs-site.xml(修改文件)

<configuration>

       <property>

                <name>dfs.datanode.data.dir</name>

                <value>/usr/local/soft/hadoop-2.4.1/hdf/data</value>

                <final>true</final>

        </property>

        <property>

                <name>dfs.replication</name>

                <value>1</value>

        </property>

        <property>

                <name>dfs.namenode.name.dir</name>

                <value>/usr/local/soft/hadoop-2.4.1/hdf/name</value>

                <final>true</final>

        </property>

</configuration>

3.    mv mapred-site.xml.template mapred-site.xml

4.     vi mapred-site.xml(修改文件)

<configuration>

  <property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

  </property>

  <property>

    <name>mapreduce.jobhistory.address</name>

    <value>hadoop:10020</value>

  </property>

  <property>

    <name>mapreduce.jobhistory.webapp.address</name>

    <value>hadoop:19888</value>

  </property>

  <property>

     <name>mapred.job.tracker</name>

     <value>hadoop:9001</value>

  </property>

</configuration>

5).    vi yarn-site.xml(修改文件)

<property>

                        <name>yarn.resourcemanager.hostname</name>

                        <value>hadoop</value>

        </property>

                <!-- reducer -->

        <property>

                        <name>yarn.nodemanager.aux-services</name>

                        <value>mapreduce_shuffle</value>

        </property>

        <property>

                        <value>org.apache.mapred.ShuffleHandler</value>

        </property>

        <property>

                        <name>yarn.resourcemanager.address</name>

                        <value>hadoop:8032</value>

        </property>

        <property>

                        <name>yarn.resourcemanager.scheduler.address</name>

                        <value>hadoop:8030</value>

        </property>

        <property>

                        <name>yarn.resourcemanager.resource-tracker.address</name>

                        <value>hadoop:8031</value>

        </property>

        <property>

                        <name>yarn.resourcemanager.admin.address</name>

                        <value>hadoop:8033</value>

        </property>

        <property>

                        <name>yarn.resourcemanager.webapp.address</name>

                        <value>hadoop:8088</value>

        </property>

5.1     vi hadoop-env.sh  配置環(huán)境

export JAVA_HOME=/usr/jdk/jdk1.7.0_79

export HADOOP_HOME=/usr/local/soft/hadoop-2.4.1

export

HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

5.2vi yarn-env.sh 配置環(huán)境

export HADOOP_YARN_USER=${HADOOP_YARN_USER:-yarn}

export JAVA_HOME=/usr/jdk/jdk1.7.0_79

export HADOOP_HOME=/usr/local/soft/hadoop-2.4.1

export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

6).   vi /etc/profile   Hadoop的安裝目錄配置到環(huán)境變量中

7.    讓配置文件生效執(zhí)行命令   source /etc/profile

8.前面沒有錯(cuò)誤之后再格式化,,切記  hdfs namenode -format

 或者    hadoop namenode -format  實(shí)現(xiàn)格式化

9.首先執(zhí)行命令   start-dfs.sh

10啟動(dòng)Yarn,執(zhí)行命令start-yarn.sh

11.啟動(dòng)之后,,在任意目錄下執(zhí)行   jps   命令

12.首先在瀏覽器地址欄中輸入   http:// 192.168.43.170:50070

13.配置免密:

進(jìn)入:

cd /root/.ssh

生成:

ssh-keygen -t rsa

查看公鑰和私鑰內(nèi)容,,執(zhí)行命令  cat id_rsa  cat id_rsa.pub

完成!??!

    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多