亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Spark 編程實戰之經典算法TOP K

發布時間:2020-05-16 08:57:13 來源:網絡 閱讀:1505 作者:ChinaUnicom110 欄目:大數據
Top K
Top K算法有兩步,一是統計詞頻,二是找出詞頻最高的前K個詞。
1.實例描述
假設取Top 1,則有如下輸入和輸出。
輸入:
Hello World Bye World
Hello Hadoop Bye Hadoop
Bye Hadoop Hello Hadoop
輸出:
詞Hadoop 詞頻4
2.設計思路
首先統計WordCount的詞頻,將數據轉化為(詞,詞頻)的數據對,第二個階段采用分
治的思想,求出RDD每個分區的Top K,最后將每個分區的Top K結果合并以產生新的集
合,在集合中統計出Top K的結果。每個分區由于存儲在單機的,所以可以采用單機求Top
K的方式。本例采用堆的方式。也可以直接維護一個含K個元素的數組,感興趣的讀者可以
參考其他資料了解堆的實現。
3.代碼示例
Top K算法示例代碼如下:
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
object TopK {
def main(args:Array[String]) {
/*執行WordCount,統計出最高頻的詞*/
val spark = new SparkContext("local", "TopK",
System.getenv("SPARK_HOME"), SparkContext.jarOfClass(this.getClass))
val count = spark.textFile("data").flatMap(line =>
line.split(" ")).map(word =>
(word, 1)).reduceByKey(_ + _)
/*統計RDD每個分區內的Top K查詢*/
val topk = count.mapPartitions(iter => {
while(iter.hasNext) {
putToHeap(iter.next())
}
getHeap().iterator
}
).collect()
/*將每個分區內統計出的TopK查詢合并為一個新的集合,統計出TopK查詢*/
val iter = topk.iterator
while(iter.hasNext) {
putToHeap(iter.next())
}
val outiter=getHeap().iterator
/*輸出TopK的值*/
println("Topk 值 :")
while(outiter.hasNext) {
println("\n 詞頻:"+outiter.next()._1+" 詞:"+outiter.next()._2)
}
spark.stop()
}
}
def putToHeap(iter : (String, Int)) {
/*數據加入含k個元素的堆中*/
……
}
def getHeap(): Array[(String, Int)] = {
/*獲取含k個元素的堆中的元素*/
val a=new Array[(String, Int)]()
……
}
4.應用場景
Top K的示例模型可以應用在求過去一段時間消費次數最多的消費者、訪問最頻繁的IP
地址和最近、更新、最頻繁的微博等應用場景。


向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

奉新县| 万安县| 东乌| 合山市| 五莲县| 瓮安县| 杂多县| 嵩明县| 峨边| 淅川县| 迁安市| 刚察县| 眉山市| 汤原县| 勐海县| 永安市| 工布江达县| 庆阳市| 弋阳县| 库车县| 玉屏| 新乐市| 滦南县| 寿阳县| 原平市| 平阳县| 常熟市| 望都县| 运城市| 永宁县| 曲水县| 河南省| 阳原县| 定结县| 尉氏县| 新乐市| 六盘水市| 来宾市| 环江| 吉首市| 林芝县|