您好,登錄后才能下訂單哦!
小編給大家分享一下Hadoop中WordCount如何實現,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
WordCount 是 Hadoop 應用最經典的例子。
使用 hadoop-2.6.0 版本,需要引入的包目錄位于 hadoop-2.6.0/share/hadoop/common/lib
。
import java.io.IOException; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.mapreduce.lib.input.TextInputFormat; import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat; public class WordCount { public static class WordCountMap extends Mapper <Object, Text, Text, IntWritable> { private final static IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(Object key, Text value, Context context) throws IOException, InterruptedException { String line = value.toString(); StringTokenizer tokenizer = new StringTokenizer(line); while (tokenizer.hasMoreTokens()){ word.set(tokenizer.nextToken()); context.write(word, one); } } } public static class WordCountReduce extends Reducer <Text, IntWritable, Text, IntWritable> { public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException { int sum = 0; for (IntWritable val : values) { sum += val.get(); } context.write(key, new IntWritable(sum)); } } public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); Job job = new Job(conf); job.setJarByClass(WordCount.class); job.setJobName("wordcount"); job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); job.setMapperClass(WordCountMap.class); job.setReducerClass(WordCountReduce.class); job.setInputFormatClass(TextInputFormat.class); job.setOutputFormatClass(TextOutputFormat.class); FileInputFormat.addInputPath(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); job.waitForCompletion(true); } }
Mapper 的輸入類型為文本,鍵用 Object
代替,值為文本 (Text)。
Mapper 的輸出類型為文本,鍵為 Text,值為 IntWritable,相當于java中Integer整型變量。將分割后的字符串形成鍵值對 <單詞,1>。
對于每一行輸入文本,都會調用一次 map 方法,對輸入的行進行切分。
while (tokenizer.hasMoreTokens()){ word.set(tokenizer.nextToken()); context.write(word, one); }
將一行文本變為<單詞,出現次數>這樣的鍵值對。
對于每個鍵,都會調用一次 reduce 方法,對鍵出現次數進行求和。
用 eclipse 導出 WordCount 的 Runable jar 包,放到目錄 hadoop-2.6.0/bin
。
在目錄 hadoop-2.6.0/bin
下新建 input 文件夾,并新建文件 file1, file2。
file1 內容為 one titus two titus three titus
file2 內容為 one huangyi two huangyi
. ├── container-executor ├── hadoop ├── hadoop.cmd ├── hdfs ├── hdfs.cmd ├── input │ ├── file1.txt │ └── file2.txt ├── mapred ├── mapred.cmd ├── rcc ├── test-container-executor ├── wordcount.jar ├── yarn └── yarn.cmd
運行 ./hadoop jar wordcount.jar input output
會生成 output 目錄和結果。
huangyi 2 one 2 three 1 titus 3 two 2
以上是“Hadoop中WordCount如何實現”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。