您好,登錄后才能下訂單哦!
這期內容當中小編將會給大家帶來有關Kubernetes如何助力Spark大數據分析,文章內容豐富且以專業的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。
本文為大家介紹一種容器化的數據服務Spark + OSS on ACK,允許Spark分布式計算節點對阿里云OSS對象存儲的直接訪問。借助阿里云Kubernetes容器服務與阿里云OSS存儲資源的深度整合,允許Spark分布式內存計算,機器學習集群對云上的大數據直接進行分析和保存結果。
你已經通過阿里云容器服務創建了一個Kubernetes集群,詳細步驟參見創建Kubernetes集群
使用三次點擊來創建一個1 master + 3 worker 的Spark OSS的實例
1 登錄 https://cs.console.aliyun.com/
2 點擊 “應用目錄”
3 選擇 "spark-oss", 點擊 “參數”
給你的應用一個名字, e.g. spark-oss-online2
(必選)填寫你的oss_access_key_id和oss_access_key_secret
Worker: # set OSS access keyID and secret oss_access_key_id: <Your sub-account> oss_access_key_secret: <your key_secret of sub-account>
(可選)修改工作節點數目 Worker.Replicas:
4 點擊 “部署”
5 點擊 “Kubernetes 控制臺”,查看部署實例
6 點擊 服務, 查看外部端點, 點擊URL訪問Spark集群
7 測試Spark集群
打開一個spark-shell
kubectl get pod | grep worker
spark-oss-online2-worker-57894f65d8-fmzjs 1/1 Running 0 44m
spark-oss-online2-worker-57894f65d8-mbsc4 1/1 Running 0 44m
spark-oss-online2-worker-57894f65d8-zhwr4 1/1 Running 0 44m
kubectl exec -it spark-oss-online2-worker-57894f65d8-fmzjs -- /opt/spark/bin/spark-shell --master spark://spark-oss-online2-master:7077
粘貼下列代碼,使用Spark測試OSS的讀寫性
// Save RDD to OSS bucket val stringRdd = sc.parallelize(Seq("Test Strings\n Test String2")) stringRdd.saveAsTextFile("oss://eric-new/testwrite12") // Read data from OSS bucket val lines = sc.textFile("oss://eric-new/testwrite12") lines.take(10).foreach(println)
Test Strings
Test String2
export OSS_ID=<your oss id> export OSS_SECRET=<your oss secrets> helm install -n myspark-oss --set "Worker.oss_access_key_id="$OSS_ID",Worker.oss_access_key_secret="$OSS_SECRET incubator/spark-oss
kubectl get svc| grep oss myspark-oss-master ClusterIP 172.19.9.111 <none> 7077/TCP 2m myspark-oss-webui LoadBalancer 172.19.13.1 120.55.104.27 8080:30477/TCP 2m
上述就是小編為大家分享的Kubernetes如何助力Spark大數據分析了,如果剛好有類似的疑惑,不妨參照上述分析進行理解。如果想知道更多相關知識,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。