亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何進行spark-shell的學習

發布時間:2021-12-16 21:56:57 來源:億速云 閱讀:119 作者:柒染 欄目:云計算

如何進行spark-shell的學習,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

今天我就給大家介紹一下spark-shell的的應用

spark-shell是spark的一種運行腳本。它已經初始化了sparkContext(sc)和SparkSesssion(Spark)

大家可以到spark的安裝路徑下

bin/spark-shell

如何進行spark-shell的學習

出現上圖就說明正確。下面就可以操作spark了

注意spark用的是scala語言

val text = sc.textFile("/usr/wordcount.txt")

text.count()

如何進行spark-shell的學習

運行結果如果所示。注意這里我們是加載的本地文件,不是hdfs文件

下面我們對hdfs文件進行操作。寫出wordcount程序

首先,先上傳文件到hdfs

./hdfs dfs -put /usr/a.txt /user/spark

然后對數據進行操作

 val text = sc.textFile("hdfs://192.168.153.11:9000/user/spark/a.txt")

val counts = text.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_ + _)

 counts.saveAsTextFile("hdfs://192.168.153.11:9000/user/spark/wordcount")

如何進行spark-shell的學習

下面一個也是計算PI的demo

如何進行spark-shell的學習

關于如何進行spark-shell的學習問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

肃南| 博乐市| 阜城县| 阳信县| 陇西县| 丽江市| 惠州市| 翁源县| 平阳县| 留坝县| 长葛市| 历史| 龙口市| 弥勒县| 灯塔市| 万源市| 金坛市| 红安县| 屯留县| 安义县| 临邑县| 崇明县| 福州市| 德州市| 大田县| 翁牛特旗| 绥棱县| 忻州市| 星座| 隆德县| 社旗县| 郎溪县| 宁河县| 泸溪县| 阜宁县| 旺苍县| 双鸭山市| 卫辉市| 息烽县| 手游| 监利县|