您好,登錄后才能下訂單哦!
本篇內容主要講解“MapReduce有什么用”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“MapReduce有什么用”吧!
Hadoop實際上就是谷歌三寶的開源實現,Hadoop MapReduce對應Google MapReduce,HBase對應BigTable,HDFS對應GFS。HDFS(或GFS)為上層提供高效的非結構化存儲服務,HBase(或BigTable)是提供結構化數據服務的分布式數據庫,Hadoop MapReduce(或Google MapReduce)是一種并行計算的編程模型,用于作業調度。
GFS和BigTable已經為我們提供了高性能、高并發的服務,但是并行編程可不是所有程序員都玩得轉的活兒,如果我們的應用本身不能并發,那GFS、BigTable也都是沒有意義的。MapReduce的偉大之處就在于讓不熟悉并行編程的程序員也能充分發揮分布式系統的威力。
簡單概括的說,MapReduce是將一個大作業拆分為多個小作業的框架(大作業和小作業應該本質是一樣的,只是規模不同),用戶需要做的就是決定拆成多少份,以及定義作業本身。
下面用一個貫穿全文的例子來解釋MapReduce是如何工作的。
如果我想統計下過去10年計算機論文出現最多的幾個單詞,看看大家都在研究些什么,那我收集好論文后,該怎么辦呢?
方法一:我可以寫一個小程序,把所有論文按順序遍歷一遍,統計每一個遇到的單詞的出現次數,最后就可以知道哪幾個單詞最熱門了。
這種方法在數據集比較小時,是非常有效的,而且實現最簡單,用來解決這個問題很合適。
方法二:寫一個多線程程序,并發遍歷論文。
這個問題理論上是可以高度并發的,因為統計一個文件時不會影響統計另一個文件。當我們的機器是多核或者多處理器,方法二肯定比方法一高效。但是寫一個多線程程序要比方法一困難多了,我們必須自己同步共享數據,比如要防止兩個線程重復統計文件。
方法三:把作業交給多個計算機去完成。
我們可以使用方法一的程序,部署到N臺機器上去,然后把論文集分成N份,一臺機器跑一個作業。這個方法跑得足夠快,但是部署起來很麻煩,我們要人工把程序copy到別的機器,要人工把論文集分開,最痛苦的是還要把N個運行結果進行整合(當然我們也可以再寫一個程序)。
方法四:讓MapReduce來幫幫我們吧!
MapReduce本質上就是方法三,但是如何拆分文件集,如何copy程序,如何整合結果這些都是框架定義好的。我們只要定義好這個任務(用戶程序),其它都交給MapReduce。
在介紹MapReduce如何工作之前,先講講兩個核心函數map和reduce以及MapReduce的偽代碼。
map函數和reduce函數是交給用戶實現的,這兩個函數定義了任務本身。
map函數:接受一個鍵值對(key-value pair),產生一組中間鍵值對。MapReduce框架會將map函數產生的中間鍵值對里鍵相同的值傳遞給一個reduce函數。
reduce函數:接受一個鍵,以及相關的一組值,將這組值進行合并產生一組規模更小的值(通常只有一個或零個值)。
統計詞頻的MapReduce函數的核心代碼非常簡短,主要就是實現這兩個函數。
[plain] view plain copy
print?
map(String key, String value):
// key: document name
// value: document contents
for each word w in value:
EmitIntermediate(w, "1");
reduce(String key, Iterator values):
// key: a word
// values: a list of counts
int result = 0;
for each v in values:
result += ParseInt(v);
Emit(AsString(result));
在統計詞頻的例子里,map函數接受的鍵是文件名,值是文件的內容,map逐個遍歷單詞,每遇到一個單詞w,就產生一個中間鍵值對<w, "1">,這表示單詞w咱又找到了一個;MapReduce將鍵相同(都是單詞w)的鍵值對傳給reduce函數,這樣reduce函數接受的鍵就是單詞w,值是一串"1"(最基本的實現是這樣,但可以優化),個數等于鍵為w的鍵值對的個數,然后將這些“1”累加就得到單詞w的出現次數。最后這些單詞的出現次數會被寫到用戶定義的位置,存儲在底層的分布式存儲系統(GFS或HDFS)。
一切都是從最上方的user program開始的,user program鏈接了MapReduce庫,實現了最基本的Map函數和Reduce函數。圖中執行的順序都用數字標記了。
MapReduce庫先把user program的輸入文件劃分為M份(M為用戶定義),每一份通常有16MB到64MB,如圖左方所示分成了split0~4;然后使用fork將用戶進程拷貝到集群內其它機器上。
user program的副本中有一個稱為master,其余稱為worker,master是負責調度的,為空閑worker分配作業(Map作業或者Reduce作業),worker的數量也是可以由用戶指定的。
被分配了Map作業的worker,開始讀取對應分片的輸入數據,Map作業數量是由M決定的,和split一一對應;Map作業從輸入數據中抽取出鍵值對,每一個鍵值對都作為參數傳遞給map函數,map函數產生的中間鍵值對被緩存在內存中。
緩存的中間鍵值對會被定期寫入本地磁盤,而且被分為R個區,R的大小是由用戶定義的,將來每個區會對應一個Reduce作業;這些中間鍵值對的位置會被通報給master,master負責將信息轉發給Reduce worker。
master通知分配了Reduce作業的worker它負責的分區在什么位置(肯定不止一個地方,每個Map作業產生的中間鍵值對都可能映射到所有R個不同分區),當Reduce worker把所有它負責的中間鍵值對都讀過來后,先對它們進行排序,使得相同鍵的鍵值對聚集在一起。因為不同的鍵可能會映射到同一個分區也就是同一個Reduce作業(誰讓分區少呢),所以排序是必須的。
reduce worker遍歷排序后的中間鍵值對,對于每個唯一的鍵,都將鍵與關聯的值傳遞給reduce函數,reduce函數產生的輸出會添加到這個分區的輸出文件中。
當所有的Map和Reduce作業都完成了,master喚醒正版的user program,MapReduce函數調用返回user program的代碼。
所有執行完畢后,MapReduce輸出放在了R個分區的輸出文件中(分別對應一個Reduce作業)。用戶通常并不需要合并這R個文件,而是將其作為輸入交給另一個MapReduce程序處理。整個過程中,輸入數據是來自底層分布式文件系統(GFS)的,中間數據是放在本地文件系統的,最終輸出數據是寫入底層分布式文件系統(GFS)的。而且我們要注意Map/Reduce作業和map/reduce函數的區別:Map作業處理一個輸入數據的分片,可能需要調用多次map函數來處理每個輸入鍵值對;Reduce作業處理一個分區的中間鍵值對,期間要對每個不同的鍵調用一次reduce函數,Reduce作業最終也對應一個輸出文件。
我更喜歡把流程分為三個階段。第一階段是準備階段,包括1、2,主角是MapReduce庫,完成拆分作業和拷貝用戶程序等任務;第二階段是運行階段,包括3、4、5、6,主角是用戶定義的map和reduce函數,每個小作業都獨立運行著;第三階段是掃尾階段,這時作業已經完成,作業結果被放在輸出文件里,就看用戶想怎么處理這些輸出了。
結合第四節,我們就可以知道第三節的代碼是如何工作的了。假設咱們定義M=5,R=3,并且有6臺機器,一臺master。
這幅圖描述了MapReduce如何處理詞頻統計。由于map worker數量不夠,首先處理了分片1、3、4,并產生中間鍵值對;當所有中間值都準備好了,Reduce作業就開始讀取對應分區,并輸出統計結果。
用戶最主要的任務是實現map和reduce接口,但還有一些有用的接口是向用戶開放的。
an input reader。這個函數會將輸入分為M個部分,并且定義了如何從數據中抽取最初的鍵值對,比如詞頻的例子中定義文件名和文件內容是鍵值對。
a partition function。這個函數用于將map函數產生的中間鍵值對映射到一個分區里去,最簡單的實現就是將鍵求哈希再對R取模。
a compare function。這個函數用于Reduce作業排序,這個函數定義了鍵的大小關系。
an output writer。負責將結果寫入底層分布式文件系統。
a combiner function。實際就是reduce函數,這是用于前面提到的優化的,比如統計詞頻時,如果每個<w, "1">要讀一次,因為reduce和map通常不在一臺機器,非常浪費時間,所以可以在map執行的地方先運行一次combiner,這樣reduce只需要讀一次<w, "n">了。
map和reduce函數就不多說了。
目前MapReduce已經有多種實現,除了谷歌自己的實現外,還有著名的hadoop,區別是谷歌是c++,而hadoop是用java。另外斯坦福大學實現了一個在多核/多處理器、共享內存環境內運行的MapReduce,稱為Phoenix(介紹)。
到此,相信大家對“MapReduce有什么用”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。