1. 官網下載
wget http://d3kbcqa49mib13./spark-2.0.1-bin-hadoop2.7.tgz
2. 解壓
tar -zxvf spark-2.0.1-bin-hadoop2.7.tgz ln -s spark-2.0.1-bin-hadoop2.7 spark2
3. 環(huán)境變量
vi /etc/profile #Spark 2.0.1
4. 配置文件(/usr/local/spark2/conf) 1) spark-env.sh cp -a spark-env.sh.template spark-env.sh
vi spark-env.sh export JAVA_HOME=/usr/java/jdk1.8 2) slaves cp -a slaves.template slaves
vi slaves cdh02
5. 復制到其他節(jié)點 scp -r spark-2.0.1-bin-hadoop2.7 root@cdh02:/usr/local scp -r spark-2.0.1-bin-hadoop2.7 root@cdh03:/usr/local
6. 啟動 $SPARK_HOME/sbin/start-all.sh
7. 運行 1) 準備一個文本文件放在/logs/wordcount.log內容為: hdfs hbase hive hdfs 2) 運行spark-shell
3) 運行wordcount
8. Web界面 http://cdh01:8080/jobs/
http://cdh01:4040/jobs/
|
|
來自: 昵稱16883405 > 《Spark》