您好,登錄后才能下訂單哦!
這篇文章主要介紹“ hadoop中怎么讀取protobuf數據 ”,在日常操作中,相信很多人在 hadoop中怎么讀取protobuf數據 問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答” hadoop中怎么讀取protobuf數據 ”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
在mapreduce中讀取protobuf數據時,會遇到一個坑
BytesWritable。當你把byte[]數據保存到BytesWritable后,通過BytesWritable.getBytes()再讀到的數據并不一定是原數據,可能變長了很多,這是因為BytesWritable采用了自動內存增長算法,你保存的數據長度為size時,它可能將數據保存到了長度為capacity(capacity>size)的buffer中,這時候,你通過BytesWritable.getBytes()得到的數據最后一些字符是多余的,如果里面保存的是protobuf序列化后的數據,則無法反序列化,這時候可以使用BytesWritable.setCapacity(BytesWritable.getLength())將后面多余空間剔除掉,然后就可以使用protobuf反序列為原始數據。
關鍵代碼如下
conf.setInputFormat(SequenceFileAsBinaryInputFormat.class);
public void map(Object key, BytesWritable values, OutputCollector output, Reporter reporter) throws IOException { values.setCapacity(values.getLength());// very important !!! byte[] data = values.getBytes(); // more code }
到此,關于“ hadoop中怎么讀取protobuf數據 ”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。