您好,登錄后才能下訂單哦!
Spark集群部署
一、準備工作
準備3臺機器創建集群,主機名及IP地址為
Master 192.168.2.240
Slave1 192.168.2.241
Slave2 192.168.2.242
下載軟件
Scala: https://downloads.lightbend.com/scala/2.12.3/scala-2.12.3.tgz
Spark: http://mirrors.hust.edu.cn/apache/spark/spark-2.2.0/spark-2.2.0-bin-hadoop2.6.tgz
JDK:
http://download.oracle.com/otn-pub/java/jdk/8u151-b12/e758a0de34e24606bca991d704f6dcbf/jdk-8u151-linux-x64.tar.gz
二、環境配置
2.1、配置ssh免密碼登錄
在master主機上執行以下命令
ssh-keygen -t rsa #創建公鑰和私鑰
ssh-copy-id slave1 #把私鑰文件上傳到slave1和slave2,第一次需要輸入密碼驗證。
ssh-copy-id slave2
完成以上操作,從master登錄slave1,slave2就不用輸入密碼了。
2.2、安裝JDK
解壓jdk安裝包
tar -zxf jdk-8u151-linux-x64.tar.gz -C /usr/local/
ln -sv /usr/local/jdk_1.8.0_151 jdk
vi /etc/profile.d/jdk.sh
export JAVA_HOME=/usr/local/jdk/
export PATH=$PATH:$JAVA_HOME/bin
chmod 755 /etc/profile.d/jdk.sh
. /etc/profile.d/jdk.sh
檢查Java版本
java -version
java version "1.7.0_75"
Java(TM) SE Runtime Environment (build 1.7.0_75-b13)
Java HotSpot(TM) 64-Bit Server VM (build 24.75-b04, mixed mode)
2.3、安裝Scala
解壓安裝包
tar -zxf scala-2.12.3.tgz -C /us r/local
vi /etc/profile.d/scala.sh
export SCALA_HOME=/usr/local/scala-2.12.3
export PATH=$PATH:$SCALA_HOME/bin
chmod 755 /etc/profile.d/scala.sh
. /etc/profile.d/scala.sh
scala -version
Scala code runner version 2.12.3 -- Copyright 2002-2013, LAMP/EPFL
Scala環境配置完成。
三、開始按Spark集群
解壓安裝包
tar -zxf spark-2.2.0-bin-hadoop2.6.tgz -C /opt
cd /opt
mv spark-2.2.0-bin-hadoop2.6 spark-2.2.0
配置Spark環境
cd /opt/spark-2.2.0/conf/
cp spark-env.sh.template spark-env.sh
spark-env.sh添加一下內容
export JAVA_HOME=/usr/local/jdk
export SCALA_HOME=/usr/local/scala-2.11.0/
export HADOOP_HOME=/opt/cloudera/parcels/CDH-5.8.0-1.cdh6.8.0.p0.42/lib/hadoop/
export HADOOP_CONF_DIR=/opt/cloudera/parcels/CDH-5.8.0-1.cdh6.8.0.p0.42/lib/hadoop/etc/hadoop/
export SPARK_MASTER_IP=master
export SPARK_LOCAL_DIRS=/opt/spark-2.2.0
export SPARK_WORKER_MEMORY=512m
export SPARK_WORKER_CORES=2
export SPARK_WORKER_INSTANCES=1
變量說明
配置slave主機
cp slaves.template slaves
在slaves文件中添加slave主機
Slave1
Slave2
將配置好的spark-2.2.0文件夾分發給所有的slave主機
scp -rp spark-2.2.0 slave1:/opt
scp -rp spark-2.2.0 slave2:/opt
啟動Spark集群
/opt/spark-2.2.0/sbin/start-all.sh
驗證Spark是否啟動成功,通過jps命令
Master應有master進程
8591 Master
Slave應有Worker進程
1694 Worker
Spark Web管理頁面地址: http://master:8080/
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。