亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop Sqoop

發布時間:2020-06-24 17:13:52 來源:網絡 閱讀:454 作者:lzf05303774 欄目:數據庫

一、概述:

Sqoop是一款開源的工具,主要用于在Hadoop(如Hive、HDFS)與傳統的數據庫(mysqlOracle ...)間進行數據的傳遞,可以將一個關系型數據庫(如 MySQL ,Oracle...)中的數據導進到Hadoop的HDFS中,也可以將HDFS的數據導進到關系型數據庫中。其實質就是將導入導出命令轉換成MapReduce程序來實現。

二、安裝和配置

1、修改配置文件sqoop-env.sh:

#Set path to where bin/hadoop is available

export HADOOP_COMMON_HOME=/home/hadoop/app/hadoop-2.4.1


#Set path to where hadoop-*-core.jar is available

export HADOOP_MAPRED_HOME=/home/hadoop/app/hadoop-2.4.1


#set the path to where bin/hbase is available

export HBASE_HOME=/home/hadoop/app/hbase-0.96.2-hadoop2


#Set the path to where bin/hive is available

export HIVE_HOME=/home/hadoop/app/hive-0.12.0-bin


#Set the path for where zookeper config dir is

export ZOOCFGDIR=/home/hadoop/app/zookeeper-3.4.5/conf


2、將sqoop添加到環境變量。


3、將數據庫連接驅動拷貝到$SQOOP_HOME/lib里。


三、導入導出:

1、數據庫中的數據導入到HDFS上:

(1)、指定導入的字段:

sqoop import 

--connect jdbc:mysql://192.168.1.10:3306/itcast 

--username root --password 123  

--table trade_detail 

--columns 'id, account, income, expenses'

(2)、指定輸出路徑、指定數據分隔符:

sqoop import 

--connect jdbc:mysql://192.168.1.10:3306/itcast 

--username root --password 123  

##要導入數據的表

--table trade_detail 

##數據導入hdfs后所存放的目錄

--target-dir '/sqoop/td' 

##導入的數據字段之間的分隔符

--fields-terminated-by '\t'

(3)、指定Map數量 -m 

sqoop import 

--connect jdbc:mysql://192.168.1.10:3306/itcast 

--username root --password 123  

--table trade_detail 

--target-dir '/sqoop/td1' 

--fields-terminated-by '\t'

##指定做導入處理時的map 任務數 

-m 2


(4)、增加where條件, 注意:條件必須用引號引起來

sqoop import 

--connect jdbc:mysql://192.168.1.10:3306/itcast 

--username root --password 123  

--table trade_detail 

--where 'id>3' 

--target-dir '/sqoop/td2' 


(5)、增加query語句(使用 \ 將語句換行)

sqoop import 

--connect jdbc:mysql://192.168.1.10:3306/itcast 

--username root --password 123 

--query 'SELECT * FROM trade_detail where id > 2 AND $CONDITIONS' 

--split-by trade_detail.id 

--target-dir '/sqoop/td3'

注意:如果使用--query這個命令的時候,需要注意的是where后面的參數,AND $CONDITIONS這個參數必須加上

而且存在單引號與雙引號的區別,如果--query后面使用的是雙引號,那么需要在$CONDITIONS前加上\即\$CONDITIONS

如果設置map數量為1個時即-m 1,不用加上--split-by ${tablename.column},否則需要加上

2、將HDFS上的文件數據導出到數據庫的表里面去:

sqoop export 

--connect jdbc:mysql://192.168.8.120:3306/itcast 

--username root --password 123 

##你要導出的數據所在的目錄

--export-dir '/td3' 

##你要導往的目標關系表

--table td_bak 

-m 1 

##你要導出的文件的字段分隔符

--fields-termianted-by '\t'

四、用python導入導出表:

import os


from_table="rpt_daily"


to_table="rpt_daily"


sqoop1="sqoop import --connect jdbc:mysql://172.30.200.219/bi_warehouse --username root " \

      "--password artisan  --table "+from_table+"  --fields-terminated-by '\\001' --target-dir /db/as_main/modifier/lzf/"+from_table+"  --delete-target-dir --num-mappers 1 "

os.system(sqoop1)


sqoop2="sqoop export --connect \"jdbc:mysql://192.168.1.4/bi_warehouse?useUnicode=true&characterEncoding=utf-8\" --username root --password root --table "+to_table+"  " \

       "--export-dir /db/as_main/modifier/lzf/"+to_table+"/part-m-00000 --input-fields-terminated-by '\\001'"


os.system(sqoop2)



執行有2種方法:

方法1、在linux行,執行python ,進入python,然后將上面內容粘貼后回車即可


方法2、在linux行,執行python  test2.py,即python調用文件(test2.py為上述內容保存的文件名稱)


向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

肥城市| 噶尔县| 平谷区| 大荔县| 米林县| 洮南市| 淳化县| 铜山县| 临高县| 哈巴河县| 翁源县| 凉城县| 汕头市| 长武县| 肃南| 盘山县| 全州县| 平利县| 若羌县| 南开区| 武功县| 慈利县| 荔浦县| 光泽县| 左云县| 定结县| 莒南县| 松原市| 望城县| 泽库县| 渝北区| 朔州市| 泸水县| 尚志市| 申扎县| 东至县| 和政县| 横峰县| 镇坪县| 体育| 宝山区|