您好,登錄后才能下訂單哦!
直接上代碼吧
說下測試思路:
該代碼監控的/tmp/sparkStream/目錄;
首先,創建該目錄mkdir -p /tmp/sparkStream;
然后,運行spark程序;
最后,向監控目錄/tmp/sparkStream/添加數據文件;
觀察spark程序運行效果。
sparkStreaming import org.apache.log4j.{LoggerLevel} import org.apache.spark.SparkConf import org.apache.spark.streaming.{SecondsStreamingContext} import org.apache.spark.streaming.StreamingContext._ object HdfsWordCount { def main(args: Array[]){ Logger.getLogger("org.apache.spark").setLevel(Level.WARN) Logger.getLogger("org.apache.eclipse.jetty.server").setLevel(Level.OFF) sparkConf = SparkConf().setAppName().setMaster() ssc = StreamingContext(sparkConf()) lines = ssc.textFileStream() words = lines.flatMap(_.split()) wordCounts = words.map(x=>(x)).reduceByKey(_+_) wordCounts.print() ssc.start() ssc.awaitTermination() } }
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。