亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

使用Spark-shell怎么批量命令執行腳本

發布時間:2021-05-18 16:23:11 來源:億速云 閱讀:432 作者:Leah 欄目:開發技術

這篇文章給大家介紹使用Spark-shell怎么批量命令執行腳本,內容非常詳細,感興趣的小伙伴們可以參考借鑒,希望對大家能有所幫助。

批量執行spark-shell命令,并指定提交參數

#!/bin/bash

source /etc/profile

exec $SPARK_HOME/bin/spark-shell --queue tv --name spark-sql-test --executor-cores 8 --executor-memory 8g --num-executors 8 --conf spark.cleaner.ttl=240000 <<!EOF
import org.apache.spark.sql.SaveMode
sql("set hive.exec.dynamic.partition=true")
sql("set hive.exec.dynamic.partition.mode=nonstrict")
sql("use hr")
sql("SELECT * FROM t_abc ").rdd.saveAsTextFile("/tmp/out") 
sql("SELECT * FROM t_abc").rdd.map(_.toString).intersection(sc.textFile("/user/hdfs/t2_abc").map(_.toString).distinct).count
!EOF

關于使用Spark-shell怎么批量命令執行腳本就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

彭泽县| 唐河县| 宜昌市| 清苑县| 吴江市| 包头市| 沙湾县| 安化县| 肃南| 深水埗区| 亚东县| 闽清县| 灵山县| 鹿泉市| 绥滨县| 永寿县| 阿克| 齐齐哈尔市| 周宁县| 正定县| 黎川县| 三亚市| 疏勒县| 广平县| 馆陶县| 砚山县| 会理县| 凭祥市| 安徽省| 舟曲县| 永顺县| 大宁县| 武定县| 东乌珠穆沁旗| 凌源市| 贵德县| 鹰潭市| 涿州市| 库车县| 巴彦县| 茶陵县|