亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 數據庫 > MySQL > 正文

在Hadoop集群環境中為MySQL安裝配置Sqoop的教程

2024-07-24 13:08:38
字體:
來源:轉載
供稿:網友
這篇文章主要介紹了在Hadoop集群環境中為MySQL安裝配置Sqoop的教程,Sqoop一般被用于數據庫軟件之間的數據遷移,需要的朋友可以參考下
 

Sqoop是一個用來將Hadoop和關系型數據庫中的數據相互轉移的工具,可以將一個關系型數據庫(例如 : MySQL ,Oracle ,Postgres等)中的數據導進到Hadoop的HDFS中,也可以將HDFS的數據導進到關系型數據庫中。

Sqoop中一大亮點就是可以通過hadoop的mapreduce把數據從關系型數據庫中導入數據到HDFS。


一、安裝sqoop
1、下載sqoop壓縮包,并解壓

壓縮包分別是:sqoop-1.2.0-CDH3B4.tar.gz,hadoop-0.20.2-CDH3B4.tar.gz, Mysql JDBC驅動包mysql-connector-java-5.1.10-bin.jar

[root@node1 ~]# ll
drwxr-xr-x 15 root root  4096 Feb 22 2011 hadoop-0.20.2-CDH3B4-rw-r--r-- 1 root root 724225 Sep 15 06:46 mysql-connector-java-5.1.10-bin.jardrwxr-xr-x 11 root root  4096 Feb 22 2011 sqoop-1.2.0-CDH3B4

2、將sqoop-1.2.0-CDH3B4拷貝到/home/hadoop目錄下,并將Mysql JDBC驅動包和hadoop-0.20.2-CDH3B4下的hadoop-core-0.20.2-CDH3B4.jar至sqoop-1.2.0-CDH3B4/lib下,最后修改一下屬主。

[root@node1 ~]# cp mysql-connector-java-5.1.10-bin.jar sqoop-1.2.0-CDH3B4/lib[root@node1 ~]# cp hadoop-0.20.2-CDH3B4/hadoop-core-0.20.2-CDH3B4.jar sqoop-1.2.0-CDH3B4/lib[root@node1 ~]# chown -R hadoop:hadoop sqoop-1.2.0-CDH3B4[root@node1 ~]# mv sqoop-1.2.0-CDH3B4 /home/hadoop[root@node1 ~]# ll /home/hadoop
total 35748-rw-rw-r-- 1 hadoop hadoop  343 Sep 15 05:13 derby.logdrwxr-xr-x 13 hadoop hadoop  4096 Sep 14 16:16 hadoop-0.20.2drwxr-xr-x 9 hadoop hadoop  4096 Sep 14 20:21 hive-0.10.0-rw-r--r-- 1 hadoop hadoop 36524032 Sep 14 20:20 hive-0.10.0.tar.gzdrwxr-xr-x 8 hadoop hadoop  4096 Sep 25 2012 jdk1.7drwxr-xr-x 12 hadoop hadoop  4096 Sep 15 00:25 mahout-distribution-0.7drwxrwxr-x 5 hadoop hadoop  4096 Sep 15 05:13 metastore_db-rw-rw-r-- 1 hadoop hadoop  406 Sep 14 16:02 scp.shdrwxr-xr-x 11 hadoop hadoop  4096 Feb 22 2011 sqoop-1.2.0-CDH3B4drwxrwxr-x 3 hadoop hadoop  4096 Sep 14 16:17 tempdrwxrwxr-x 3 hadoop hadoop  4096 Sep 14 15:59 user

3、配置configure-sqoop,注釋掉對于HBase和ZooKeeper的檢查

[root@node1 bin]# pwd
/home/hadoop/sqoop-1.2.0-CDH3B4/bin
[root@node1 bin]# vi configure-sqoop 
#!/bin/bash## Licensed to Cloudera, Inc. under one or more# contributor license agreements. See the NOTICE file distributed with# this work for additional information regarding copyright ownership....# Check: If we can't find our dependencies, give up here.if [ ! -d "${HADOOP_HOME}" ]; then echo "Error: $HADOOP_HOME does not exist!" echo 'Please set $HADOOP_HOME to the root of your Hadoop installation.' exit 1fi#if [ ! -d "${HBASE_HOME}" ]; then# echo "Error: $HBASE_HOME does not exist!"# echo 'Please set $HBASE_HOME to the root of your HBase installation.'# exit 1#fi#if [ ! -d "${ZOOKEEPER_HOME}" ]; then# echo "Error: $ZOOKEEPER_HOME does not exist!"# echo 'Please set $ZOOKEEPER_HOME to the root of your ZooKeeper installation.'# exit 1#fi

4、修改/etc/profile和.bash_profile文件,添加Hadoop_Home,調整PATH

[hadoop@node1 ~]$ vi .bash_profile 
# .bash_profile# Get the aliases and functionsif [ -f ~/.bashrc ]; then  . ~/.bashrcfi# User specific environment and startup programsHADOOP_HOME=/home/hadoop/hadoop-0.20.2PATH=$HADOOP_HOME/bin:$PATH:$HOME/binexport HIVE_HOME=/home/hadoop/hive-0.10.0export MAHOUT_HOME=/home/hadoop/mahout-distribution-0.7export PATH HADOOP_HOME

二、測試Sqoop

1、查看mysql中的數據庫:

[hadoop@node1 bin]$ ./sqoop list-databases --connect jdbc:mysql://192.168.1.152:3306/ --username sqoop --password sqoop
13/09/15 07:17:16 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead.13/09/15 07:17:17 INFO manager.MySQLManager: Executing SQL statement: SHOW DATABASESinformation_schemamysqlperformance_schemasqooptest

2、將mysql的表導入到hive中:

[hadoop@node1 bin]$ ./sqoop import --connect jdbc:mysql://192.168.1.152:3306/sqoop --username sqoop --password sqoop --table test --hive-import -m 1
13/09/15 08:15:01 WARN tool.BaseSqoopTool: Setting your password on the command-line is insecure. Consider using -P instead.13/09/15 08:15:01 INFO tool.BaseSqoopTool: Using Hive-specific delimiters for output. You can override13/09/15 08:15:01 INFO tool.BaseSqoopTool: delimiters with --fields-terminated-by, etc.13/09/15 08:15:01 INFO tool.CodeGenTool: Beginning code generation13/09/15 08:15:01 INFO manager.MySQLManager: Executing SQL statement: SELECT t.* FROM `test` AS t LIMIT 113/09/15 08:15:02 INFO manager.MySQLManager: Executing SQL statement: SELECT t.* FROM `test` AS t LIMIT 113/09/15 08:15:02 INFO orm.CompilationManager: HADOOP_HOME is /home/hadoop/hadoop-0.20.2/bin/..13/09/15 08:15:02 INFO orm.CompilationManager: Found hadoop core jar at: /home/hadoop/hadoop-0.20.2/bin/../hadoop-0.20.2-core.jar13/09/15 08:15:03 INFO orm.CompilationManager: Writing jar file: /tmp/sqoop-hadoop/compile/a71936fd2bb45ea6757df22751a320e3/test.jar13/09/15 08:15:03 WARN manager.MySQLManager: It looks like you are importing from mysql.13/09/15 08:15:03 WARN manager.MySQLManager: This transfer can be faster! Use the --direct13/09/15 08:15:03 WARN manager.MySQLManager: option to exercise a MySQL-specific fast path.13/09/15 08:15:03 INFO manager.MySQLManager: Setting zero DATETIME behavior to convertToNull (mysql)13/09/15 08:15:03 INFO mapreduce.ImportJobBase: Beginning import of test13/09/15 08:15:04 INFO manager.MySQLManager: Executing SQL statement: SELECT t.* FROM `test` AS t LIMIT 113/09/15 08:15:05 INFO mapred.JobClient: Running job: job_201309150505_000913/09/15 08:15:06 INFO mapred.JobClient: map 0% reduce 0%13/09/15 08:15:34 INFO mapred.JobClient: map 100% reduce 0%13/09/15 08:15:36 INFO mapred.JobClient: Job complete: job_201309150505_000913/09/15 08:15:36 INFO mapred.JobClient: Counters: 513/09/15 08:15:36 INFO mapred.JobClient: Job Counters 13/09/15 08:15:36 INFO mapred.JobClient:  Launched map tasks=113/09/15 08:15:36 INFO mapred.JobClient: FileSystemCounters13/09/15 08:15:36 INFO mapred.JobClient:  HDFS_BYTES_WRITTEN=58332313/09/15 08:15:36 INFO mapred.JobClient: Map-Reduce Framework13/09/15 08:15:36 INFO mapred.JobClient:  Map input records=6553613/09/15 08:15:36 INFO mapred.JobClient:  Spilled Records=013/09/15 08:15:36 INFO mapred.JobClient:  Map output records=6553613/09/15 08:15:36 INFO mapreduce.ImportJobBase: Transferred 569.6514 KB in 32.0312 seconds (17.7842 KB/sec)13/09/15 08:15:36 INFO mapreduce.ImportJobBase: Retrieved 65536 records.13/09/15 08:15:36 INFO hive.HiveImport: Removing temporary files from import process: test/_logs13/09/15 08:15:36 INFO hive.HiveImport: Loading uploaded data into Hive13/09/15 08:15:36 INFO manager.MySQLManager: Executing SQL statement: SELECT t.* FROM `test` AS t LIMIT 113/09/15 08:15:36 INFO manager.MySQLManager: Executing SQL statement: SELECT t.* FROM `test` AS t LIMIT 113/09/15 08:15:41 INFO hive.HiveImport: Logging initialized using configuration in jar:file:/home/hadoop/hive-0.10.0/lib/hive-common-0.10.0.jar!/hive-log4j.properties13/09/15 08:15:41 INFO hive.HiveImport: Hive history file=/tmp/hadoop/hive_job_log_hadoop_201309150815_1877092059.txt13/09/15 08:16:10 INFO hive.HiveImport: OK13/09/15 08:16:10 INFO hive.HiveImport: Time taken: 28.791 seconds13/09/15 08:16:11 INFO hive.HiveImport: Loading data to table default.test13/09/15 08:16:12 INFO hive.HiveImport: Table default.test stats: [num_partitions: 0, num_files: 1, num_rows: 0, total_size: 583323, raw_data_size: 0]13/09/15 08:16:12 INFO hive.HiveImport: OK13/09/15 08:16:12 INFO hive.HiveImport: Time taken: 1.704 seconds13/09/15 08:16:12 INFO hive.HiveImport: Hive import complete.

三、Sqoop 命令

Sqoop大約有13種命令,和幾種通用的參數(都支持這13種命令),這里先列出這13種命令。
接著列出Sqoop的各種通用參數,然后針對以上13個命令列出他們自己的參數。Sqoop通用參數又分Common arguments,Incremental import arguments,Output line formatting arguments,Input parsing arguments,Hive arguments,HBase arguments,Generic Hadoop command-line arguments,下面說明一下幾個常用的命令:
1.Common arguments
通用參數,主要是針對關系型數據庫鏈接的一些參數
1)列出mysql數據庫中的所有數據庫

sqoop list-databases –connect jdbc:mysql://localhost:3306/ –username root –password 123456


2)連接mysql并列出test數據庫中的表

sqoop list-tables –connect jdbc:mysql://localhost:3306/test –username root –password 123456

命令中的test為mysql數據庫中的test數據庫名稱 username password分別為mysql數據庫的用戶密碼


3)將關系型數據的表結構復制到hive中,只是復制表的結構,表中的內容沒有復制過去。

sqoop create-hive-table –connect jdbc:mysql://localhost:3306/test–table sqoop_test –username root –password 123456 –hive-tabletest

其中 –table sqoop_test為mysql中的數據庫test中的表 –hive-table
test 為hive中新建的表名稱


4)從關系數據庫導入文件到hive中

sqoop import –connect jdbc:mysql://localhost:3306/zxtest –usernameroot –password 123456 –table sqoop_test –hive-import –hive-tables_test -m 1


5)將hive中的表數據導入到mysql中,在進行導入之前,mysql中的表
hive_test必須已經提起創建好了。

sqoop export –connect jdbc:mysql://localhost:3306/zxtest –usernameroot –password root –table hive_test –export-dir/user/hive/warehouse/new_test_partition/dt=2012-03-05


6)從數據庫導出表的數據到HDFS上文件

./sqoop import –connectjdbc:mysql://10.28.168.109:3306/compression –username=hadoop–password=123456 –table HADOOP_USER_INFO -m 1 –target-dir/user/test


7)從數據庫增量導入表數據到hdfs中

./sqoop import –connect jdbc:mysql://10.28.168.109:3306/compression–username=hadoop –password=123456 –table HADOOP_USER_INFO -m 1–target-dir /user/test –check-column id –incremental append–last-value 3


注:相關教程知識閱讀請移步到MYSQL教程頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
日韩精品在线观看一区二区| 欧美成人免费播放| 精品福利在线看| 日韩有码片在线观看| 久久久久这里只有精品| 欧美视频不卡中文| 国产精品综合久久久| 国产自产女人91一区在线观看| 性色av香蕉一区二区| 亚洲成年人影院在线| 蜜臀久久99精品久久久久久宅男| 日韩精品在线电影| 97国产成人精品视频| 亚洲最大的成人网| 日本欧美黄网站| 91av成人在线| 成人免费激情视频| 国产99在线|中文| 好吊成人免视频| 国产精品狼人色视频一区| 久久久久久久久久久网站| 成人高h视频在线| 国产精品成人aaaaa网站| 国产成人亚洲综合91精品| 国产亚洲精品美女久久久久| 国产日韩欧美夫妻视频在线观看| 国产一区二区三区四区福利| 国产精品第三页| 精品久久久久久久久久ntr影视| 欧美中文字幕视频在线观看| 久久国产精品久久久久| 久久综合亚洲社区| 精品露脸国产偷人在视频| 精品国产视频在线| 中文字幕欧美亚洲| 久久成人亚洲精品| 亚洲人成在线播放| 欧美在线日韩在线| 日韩一区二区三区xxxx| 热久久视久久精品18亚洲精品| 国产精品久久久久久久久免费看| 欧美激情日韩图片| 中文字幕精品—区二区| 亚洲欧美日韩天堂| 日韩av在线电影网| 亚洲自拍小视频免费观看| 91久久夜色精品国产网站| 91在线观看免费高清完整版在线观看| 精品人伦一区二区三区蜜桃免费| 亚洲免费小视频| 欧美激情视频网| 日韩美女av在线免费观看| 国产精品美女久久久久久免费| 国产成人综合精品在线| 中文字幕亚洲欧美一区二区三区| 国产精品久久久久久影视| 欧美日韩第一页| 久久久精品在线观看| 国产精品久久久久久网站| 成人精品福利视频| 精品国产老师黑色丝袜高跟鞋| 亚洲国产精品va在线看黑人动漫| 亚洲自拍偷拍福利| 亚洲第一福利在线观看| 欧美日韩在线一区| 69久久夜色精品国产69乱青草| 精品亚洲aⅴ在线观看| 欧美一二三视频| 欧美激情一区二区三级高清视频| 亚洲精品福利视频| 97人洗澡人人免费公开视频碰碰碰| 欧美高清视频一区二区| 国产日韩精品在线| 成人a视频在线观看| 亚洲精品大尺度| 亚洲精品电影网在线观看| 日韩黄色在线免费观看| 亚洲一区二区三区四区视频| 亚洲电影中文字幕| 国产精品久久91| 国产日韩在线亚洲字幕中文| 国语自产精品视频在免费| 久久影视电视剧免费网站| 久久99国产综合精品女同| 欧美日韩亚洲天堂| 成人国内精品久久久久一区| 亚洲成年网站在线观看| 国产精品视频一| 欧美成人精品xxx| 亚洲精品美女久久| 亚州av一区二区| 欧美性猛交xxxx免费看| 性色av一区二区三区| 国内精品一区二区三区四区| 亚洲欧美日韩天堂| 日韩电影在线观看免费| 日韩电影中文字幕一区| 在线视频日本亚洲性| 久久精品夜夜夜夜夜久久| 国产经典一区二区| 日韩在线观看免费高清完整版| 色噜噜久久综合伊人一本| 国产精品2018| 中文字幕日韩欧美| 欧美中文字幕视频在线观看| 久久国产精品久久久久久久久久| 国产精品第一视频| 992tv在线成人免费观看| 国产精品久久激情| 国产剧情久久久久久| 国产精品揄拍一区二区| 久久久久久一区二区三区| 欧美极品在线播放| 精品一区电影国产| 国内精品久久久久久中文字幕| 91精品国产高清久久久久久久久| 亚洲国产精久久久久久| 这里只有视频精品| 欧美华人在线视频| 欧美视频精品一区| 亚洲激情视频网站| 亚洲高清福利视频| 性日韩欧美在线视频| 91国产精品电影| 国产精品a久久久久久| 国产亚洲欧美日韩精品| 亚洲第一色中文字幕| 久久精品在线播放| 国产综合久久久久久| 日韩美女免费视频| 欧美猛男性生活免费| 国产在线拍揄自揄视频不卡99| 亚洲成人av中文字幕| 精品视频中文字幕| 亚洲国产婷婷香蕉久久久久久| 久久国产精品99国产精| 亚洲免费视频在线观看| 国产精品久久久久免费a∨大胸| 日韩av手机在线看| 欧美大人香蕉在线| 一区二区在线视频| 亚洲人成电影网站色| 欧美激情精品久久久久| 亚洲一区精品电影| xxx一区二区| 热久久这里只有| 精品国产老师黑色丝袜高跟鞋| 久久天天躁狠狠躁夜夜av| 亚洲视频在线免费观看| 日韩欧美aⅴ综合网站发布| 亚洲色图校园春色| 日韩激情在线视频| 欧美视频在线观看免费网址| 欧美激情国产高清| 国产成人啪精品视频免费网| 久久久久亚洲精品国产| 日产日韩在线亚洲欧美| 欧美性资源免费| 色在人av网站天堂精品| 精品国产鲁一鲁一区二区张丽| 色偷偷偷亚洲综合网另类| 亚洲娇小xxxx欧美娇小| 亚洲国产精品久久| 亚洲图片欧美午夜|