最新消息: USBMI致力于为网友们分享Windows、安卓、IOS等主流手机系统相关的资讯以及评测、同时提供相关教程、应用、软件下载等服务。

sqoop笔记(安装、配置及使用)

维修 admin 79浏览 0评论

sqoop笔记(安装、配置及使用)

sqoop简介


----sqoop是一个用来在hadoop体系和关系型数据库之间进行数据互导的工具
----实质就是将导入导出命令转换成mapreduce程序来实现

sqoop安装:安装在一台节点上就可以了。

1.上传sqoop
2.安装和配置


----修改配置文件  sqoop-env.sh

#Set path to where bin/hadoop is available
export HADOOP_COMMON_HOME=/home/hadoop/app/hadoop-2.4.1#Set path to where hadoop-*-core.jar is available
export HADOOP_MAPRED_HOME=/home/hadoop/app/hadoop-2.4.1#set the path to where bin/hbase is available
export HBASE_HOME=/home/hadoop/app/hbase-0.96.2-hadoop2#Set the path to where bin/hive is available
export HIVE_HOME=/home/hadoop/app/hive-0.12.0-bin#Set the path for where zookeper config dir is
export ZOOCFGDIR=/home/hadoop/app/zookeeper-3.4.5/conf


    在添加sqoop到环境变量
    
######将数据库连接驱动拷贝到$SQOOP_HOME/lib里


3.使用


    第一类:数据库中的数据导入到HDFS上

        sqoop import --connect jdbc:mysql://192.168.1.10:3306/mydb--username root --password 123  --table trade_detail --columns 'id, account, income, expenses'


        
        指定输出路径、指定数据分隔符

        sqoop import --connect jdbc:mysql://192.168.1.10:3306/mydb--username root --password 123  ##要导入数据的表--table trade_detail ##数据导入hdfs后所存放的目录--target-dir '/sqoop/td' ##导入的数据字段之间的分隔符--fields-terminated-by '\t'


        
        指定Map数量 -m 

        sqoop import --connect jdbc:mysql://192.168.1.10:3306/mydb--username root --password 123  --table trade_detail --target-dir '/sqoop/td1' --fields-terminated-by '\t'##指定做导入处理时的map 任务数 -m 2

        增加where条件, 注意:条件必须用引号引起来

        sqoop import --connect jdbc:mysql://192.168.1.10:3306/mydb--username root --password 123  --table trade_detail --where 'id>3' --target-dir '/sqoop/td2' 

        增加query语句(使用 \ 将语句换行)

        sqoop import --connect jdbc:mysql://192.168.1.10:3306/mydb--username root --password 123 --query 'SELECT * FROM trade_detail where id > 2 AND $CONDITIONS' --split-by trade_detail.id --target-dir '/sqoop/td3'


        
        注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上
        而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS
        如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上
        
    第二类:将HDFS上的文件数据导出到数据库的表里面去

        sqoop export --connect jdbc:mysql://192.168.8.120:3306/mydb--username root --password 123 ##你要导出的数据所在的目录--export-dir '/td3' ##你要导往的目标关系表--table td_bak -m 1 ##你要导出的文件的字段分隔符--fields-termianted-by '\t'


    
4.配置mysql远程连接

    GRANT ALL PRIVILEGES ON itcast.* TO 'root'@'192.168.1.201' IDENTIFIED BY '123' WITH GRANT OPTION;FLUSH PRIVILEGES; GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123' WITH GRANT OPTION;FLUSH PRIVILEGES


    

sqoop笔记(安装、配置及使用)

sqoop简介


----sqoop是一个用来在hadoop体系和关系型数据库之间进行数据互导的工具
----实质就是将导入导出命令转换成mapreduce程序来实现

sqoop安装:安装在一台节点上就可以了。

1.上传sqoop
2.安装和配置


----修改配置文件  sqoop-env.sh

#Set path to where bin/hadoop is available
export HADOOP_COMMON_HOME=/home/hadoop/app/hadoop-2.4.1#Set path to where hadoop-*-core.jar is available
export HADOOP_MAPRED_HOME=/home/hadoop/app/hadoop-2.4.1#set the path to where bin/hbase is available
export HBASE_HOME=/home/hadoop/app/hbase-0.96.2-hadoop2#Set the path to where bin/hive is available
export HIVE_HOME=/home/hadoop/app/hive-0.12.0-bin#Set the path for where zookeper config dir is
export ZOOCFGDIR=/home/hadoop/app/zookeeper-3.4.5/conf


    在添加sqoop到环境变量
    
######将数据库连接驱动拷贝到$SQOOP_HOME/lib里


3.使用


    第一类:数据库中的数据导入到HDFS上

        sqoop import --connect jdbc:mysql://192.168.1.10:3306/mydb--username root --password 123  --table trade_detail --columns 'id, account, income, expenses'


        
        指定输出路径、指定数据分隔符

        sqoop import --connect jdbc:mysql://192.168.1.10:3306/mydb--username root --password 123  ##要导入数据的表--table trade_detail ##数据导入hdfs后所存放的目录--target-dir '/sqoop/td' ##导入的数据字段之间的分隔符--fields-terminated-by '\t'


        
        指定Map数量 -m 

        sqoop import --connect jdbc:mysql://192.168.1.10:3306/mydb--username root --password 123  --table trade_detail --target-dir '/sqoop/td1' --fields-terminated-by '\t'##指定做导入处理时的map 任务数 -m 2

        增加where条件, 注意:条件必须用引号引起来

        sqoop import --connect jdbc:mysql://192.168.1.10:3306/mydb--username root --password 123  --table trade_detail --where 'id>3' --target-dir '/sqoop/td2' 

        增加query语句(使用 \ 将语句换行)

        sqoop import --connect jdbc:mysql://192.168.1.10:3306/mydb--username root --password 123 --query 'SELECT * FROM trade_detail where id > 2 AND $CONDITIONS' --split-by trade_detail.id --target-dir '/sqoop/td3'


        
        注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上
        而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS
        如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上
        
    第二类:将HDFS上的文件数据导出到数据库的表里面去

        sqoop export --connect jdbc:mysql://192.168.8.120:3306/mydb--username root --password 123 ##你要导出的数据所在的目录--export-dir '/td3' ##你要导往的目标关系表--table td_bak -m 1 ##你要导出的文件的字段分隔符--fields-termianted-by '\t'


    
4.配置mysql远程连接

    GRANT ALL PRIVILEGES ON itcast.* TO 'root'@'192.168.1.201' IDENTIFIED BY '123' WITH GRANT OPTION;FLUSH PRIVILEGES; GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '123' WITH GRANT OPTION;FLUSH PRIVILEGES


    

发布评论

评论列表 (0)

  1. 暂无评论