亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

數據到hadoop的遷移步驟

發布時間:2021-08-20 20:08:47 來源:億速云 閱讀:352 作者:chen 欄目:開發技術

本篇內容主要講解“數據到hadoop的遷移步驟”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“數據到hadoop的遷移步驟”吧!

最近在用flume和sqoop來做非關系數據(日志)和關系數據(MYSQL)遷移到hdfs的工作,簡單記錄下使用過程,以此總結
一 flume的使用
使用flume把web的log日志數據導入到hdfs上
步驟
1 在 elephant 節點上
先安裝flume sudo yum install --assumeyes flume-ng
2 創建配置文件
vi /etc/hadoop/conf/flume-conf.properties

tail1.sources = src1
tail1.channels = ch2
tail1.sinks = sink1
tail1.sources.src1.type = exec
tail1.sources.src1.command = tail -F /tmp/access_log
tail1.sources.src1.channels = ch2
tail1.channels.ch2.type = memory
tail1.channels.ch2.capacity = 500
tail1.sinks.sink1.type = avro
tail1.sinks.sink1.hostname = localhost
tail1.sinks.sink1.port = 6000
tail1.sinks.sink1.batch-size = 1
tail1.sinks.sink1.channel = ch2
##
collector1.sources = src1
collector1.channels = ch2
collector1.sinks = sink1
collector1.sources.src1.type = avro
collector1.sources.src1.bind = localhost
collector1.sources.src1.port = 6000
collector1.sources.src1.channels = ch2
collector1.channels.ch2.type = memory
collector1.channels.ch2.capacity = 500
collector1.sinks.sink1.type = hdfs
collector1.sinks.sink1.hdfs.path = flume/collector1
collector1.sinks.sink1.hdfs.filePrefix = access_log
collector1.sinks.sink1.channel = ch2

配置文件說明結構是
src取日志數據,通過內存傳送到本地以avro文件格式保存,做中轉,然后從avro文件,通過內存傳送到hdfs上。hdfs保存路徑是flume/collector1,

3 在hfds上創建保存目錄
hadoop fs -mkdir -p flume/collector1

4 模擬產生大量日志文件,在log目錄中
$ accesslog-gen.bash /tmp/access_log
5 啟動日志收集器
flume-ng agent --conf /etc/hadoop/conf/ \
--conf-file /etc/hadoop/conf/flume-conf.properties \
--name collector1
6 啟動日志采集器
$ flume-ng agent \
--conf-file /etc/hadoop/conf/flume-conf.properties \
--name tail1

二 sqoop的使用
使用sqoop把mysql中的表數據導入到hdfs
1安裝sqoop
sudo yum install --assumeyes sqoop
2在sqoop的lib下創建一個mysql連接的驅動鏈接,也就是在sqoop的lib下面能找到mysql的驅動包
就是在/usr/lib/sqoop/lib目錄,創建 $ sudo ln -s /usr/share/java/mysql-connector-java.jar /usr/lib/sqoop/lib/
3導入數據
sqoop help
用sqoop查看mysql中有哪些數據庫
sqoop list-databases \
--connect jdbc:mysql://localhost \
--username training --password training
再看看庫里有哪些表
sqoop list-tables \
--connect jdbc:mysql://localhost/movielens \
--username training --password training
開始導入命令表movie到hdfs,表中字段的數據用tab分割
sqoop import \
--connect jdbc:mysql://localhost/movielens \
--table movie --fields-terminated-by '\t' \
--username training --password training
4驗證
hadoop fs -ls movie
hadoop fs -tail movie/part-m-00000
可以看到數據已文件形式保存到hdfs

到此,相信大家對“數據到hadoop的遷移步驟”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

金塔县| 辽宁省| 朝阳县| 古交市| 克东县| 蓝山县| 合阳县| 新平| 新宾| 白玉县| 泰和县| 静海县| 丘北县| 资讯| 栾城县| 商河县| 玉田县| 云浮市| 盘山县| 南安市| 临武县| 佛冈县| 玛沁县| 德惠市| 克山县| 龙井市| 临桂县| 清流县| 文安县| 洛浦县| 荥经县| 郑州市| 环江| 信宜市| 盐城市| 台南市| 云南省| 颍上县| 庆阳市| 庆云县| 都安|