您好,登錄后才能下訂單哦!
本篇內容介紹了“centOS7下Spark怎么安裝配置”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
環境說明:
操作系統: centos7 64位 3臺
centos7-1 192.168.190.130 master
centos7-2 192.168.190.129 slave1
centos7-3 192.168.190.131 slave2
安裝spark需要同時安裝如下內容:
jdk scale
1.安裝jdk,配置jdk環境變量
這里不講如何安裝配置jdk,自行百度。
2.安裝scala
下載scala安裝包,選擇符合要求的版本進行下載,使用客戶端工具上傳到服務器上。解壓:
#tar -zxvf scala-2.13.0-m4.tgz 再次修改/etc/profile文件,添加如下內容: export scala_home=$work_space/scala-2.13.0-m4 export path=$path:$scala_home/bin #source /etc/profile // 讓其立即生效 #scala -version //查看scala是否安裝完成
3.安裝spark
說明:有不同的版本包下載,選則你需要的下載安裝即可
source code: spark 源碼,需要編譯才能使用,另外 scala 2.11 需要使用源碼編譯才可使用
pre-build with user-provided hadoop: “hadoop free” 版,可應用到任意 hadoop 版本
pre-build for hadoop 2.7 and later: 基于 hadoop 2.7 的預先編譯版,需要與本機安裝的 hadoop 版本對應。可選的還有 hadoop 2.6。我這里因為裝的hadoop是3.1.0,所以直接安裝for hadoop 2.7 and later的版本。
注:hadoop的安裝請查看我的上一篇博客,不在重復描述。
centos7下spark安裝配置 #mkdir spark #cd /usr/spark #tar -zxvf spark-2.3.1-bin-hadoop2.7.tgz #vim /etc/profile #添加spark的環境變量,加如path下、export出來 #source /etc/profile #進入conf目錄下,把spark-env.sh.template拷貝一份改名spark-env.sh #cd /usr/spark/spark-2.3.1-bin-hadoop2.7/conf #cp spark-env.sh.template spark-env.sh #vim spark-env.sh export scala_home=/usr/scala/scala-2.13.0-m4 export java_home=/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.171-8.b10.el7_5.x86_64 export hadoop_home=/usr/hadoop/hadoop-3.1.0 export hadoop_conf_dir=$hadoop_home/etc/hadoop export spark_home=/usr/spark/spark-2.3.1-bin-hadoop2.7 export spark_master_ip=master export spark_executor_memory=1g #進入conf目錄下,把slaves.template拷貝一份改名為slaves #cd /usr/spark/spark-2.3.1-bin-hadoop2.7/conf #cp slaves.template slaves #vim slaves #添加節點域名到slaves文件中 #master //該域名為centos7-1的域名 #slave1 //該域名為centos7-2的域名 #slave2 //該域名為centos7-3的域名
啟動spark
#啟動spark之前先要把hadoop節點啟動起來 #cd /usr/hadoop/hadoop-3.1.0/ #sbin/start-all.sh #jps //檢查啟動的線程是否已經把hadoop啟動起來了 #cd /usr/spark/spark-2.3.1-bin-hadoop2.7 #sbin/start-all.sh 備注:在slave1\slave2節點上也必須按照上面的方式安裝spark,或者直接拷貝一份到slave1,slave2節點上 #scp -r /usr/spark root@slave1ip:/usr/spark
啟動信息如下:
starting org.apache.spark.deploy.master.master, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.master.master-1-master.out
slave2: starting org.apache.spark.deploy.worker.worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.worker-1-slave2.com.cn.out
slave1: starting org.apache.spark.deploy.worker.worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.worker-1-slave1.com.cn.out
master: starting org.apache.spark.deploy.worker.worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.worker-1-master.out
測試spark集群:
用瀏覽器打開master節點上的spark集群
“centOS7下Spark怎么安裝配置”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。