亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

docker中spark+scala安裝配置

發布時間:2020-06-26 01:11:55 來源:網絡 閱讀:1689 作者:九月朦朧 欄目:大數據

一、scala安裝
首先下載scala壓縮包

wget https://downloads.lightbend.com/scala/2.11.7/scala-2.11.7.tgz

解壓

tar -zxvf scala-2.11.7.tgz

移動目錄

mv scala-2.11.7 /usr/local/

改名

cd /usr/local/
mv scala-2.11.7 scala

配置環境變量

vim /etc/profile
export SCALA_HOME=/usr/local/scala
export PATH=$PATH:$SCALA_HOME/bin

docker中spark+scala安裝配置

環境變量生效

source /etc/profile

查看scala版本

scala -version

分發scala到其他主機

scp -r /usr/local/scala/ root@Master:/usr/local/
scp -r /usr/local/scala/ root@Slave2:/usr/local/

二、spark安裝
復制spark壓縮包 到容器中

docker cp /root/spark-2.1.2-bin-hadoop2.4.tgz b0c77:/

docker中spark+scala安裝配置

查看并解壓

docker中spark+scala安裝配置
在profile中添加spark環境變量
docker中spark+scala安裝配置
生效環境變量

source /etc/profile

編輯spark-env.sh

vim /usr/local/spark/conf/spark-env.sh

docker中spark+scala安裝配置

  • JAVA_HOME:Java安裝目錄
  • SCALA_HOME:Scala安裝目錄
  • HADOOP_HOME:hadoop安裝目錄
  • HADOOP_CONF_DIR:hadoop集群的配置文件的目錄
  • SPARK_MASTER_IP:spark集群的Master節點的ip地址
  • SPARK_WORKER_MEMORY:每個worker節點能夠最大分配給exectors的內存大小
  • SPARK_WORKER_CORES:每個worker節點所占有的CPU核數目
  • SPARK_WORKER_INSTANCES:每臺機器上開啟的worker節點的數目
    修改slaves文件

cp slaves.template slaves

docker中spark+scala安裝配置

vi conf/slaves

docker中spark+scala安裝配置

scp -r /usr/local/spark/ Master:/usr/local

docker中spark+scala安裝配置

scp -r /usr/local/spark/ Slave2:/usr/local

docker中spark+scala安裝配置
同時其他兩個節點也要修改 /etc/profile
啟動spark

./sbin/start-all.sh

docker中spark+scala安裝配置
成功打開之后使用jps在Master、Slave1和Slave2節點上分別可以看到新開啟的Master和Worker進程。
docker中spark+scala安裝配置
docker中spark+scala安裝配置
docker中spark+scala安裝配置
成功打開Spark集群之后可以進入Spark的WebUI界面,可以通過
SparkMaster_IP:8080
端口映射:

iptables -t nat -A DOCKER -p tcp --dport 8080 -j DNAT --to-destination 172.17.0.2:8080

docker中spark+scala安裝配置

此時我們可以通過映射到宿主機的端口訪問,可見有兩個正在運行的Worker節點。
docker中spark+scala安裝配置
打開Spark-shell
使用

spark-shell

docker中spark+scala安裝配置

推出spark-shell的命令是“:quit”
因為shell在運行,我們也可以通過
SparkMaster_IP:4040(172.17.0.2:4040)

訪問WebUI查看當前執行的任務。
先進行端口映射:

iptables -t nat -A DOCKER -p tcp --dport 4040 -j DNAT --to-destination 172.17.0.2:4040

docker中spark+scala安裝配置
docker中spark+scala安裝配置

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

巍山| 民乐县| 油尖旺区| 射洪县| 芮城县| 改则县| 中阳县| 张家界市| 无锡市| 东阳市| 威海市| 十堰市| 宁海县| 米脂县| 望城县| 射阳县| 淮南市| 靖远县| 宁化县| 连州市| 噶尔县| 永丰县| 五家渠市| 合阳县| 广元市| 兴隆县| 岑溪市| 庆阳市| 雅安市| 天台县| 固原市| 嘉义县| 墨竹工卡县| 博客| 娱乐| 于田县| 万山特区| 廊坊市| 精河县| 建湖县| 东乌珠穆沁旗|