亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 開發 > 綜合 > 正文

hive外部表

2024-07-21 02:52:28
字體:
來源:轉載
供稿:網友
我們在創建表的時候可以指定external關鍵字創建外部表,外部表對應的文件存儲在location指定的目錄下,向該目錄添加新文件的同時,該表也會讀取到該文件(當然文件格式必須跟表定義的一致),刪除外部表的同時并不會刪除location指定目錄下的文件.

1.查看hdfs系統目錄/user/hadoop1/myfile下文件[hadoop1@node1]$ hadoop fs -ls /user/hadoop1/myfile/ Found 1 items-rw-r--r--   3 hadoop1 supergroup     567839 2014-10-29 16:50 /user/hadoop1/myfile/tb_class.txt

2.創建外部表指向myfile目錄下的文件hive (hxl)> create external table tb_class_info_external          > (id int,          > class_name string,          > createtime timestamp ,          > modifytime timestamp)          > ROW FORMAT DELIMITED          > FIELDS TERMINATED BY '|'          > location '/user/hadoop1/myfile';OKTime taken: 0.083 seconds

注意這里的location指向的是hdfs系統上的路徑,而不是本地機器上的路徑,這里表tb_class_info_external會讀取myfile目錄下的所有文件

3.查看外部表hive (hxl)> select count(1) from tb_class_info_external;Total MaPReduce jobs = 1Launching Job 1 out of 1Number of reduce tasks determined at compile time: 1In order to change the average load for a reducer (in bytes):  set hive.exec.reducers.bytes.per.reducer=In order to limit the maximum number of reducers:  set hive.exec.reducers.max=In order to set a constant number of reducers:  set mapred.reduce.tasks=Starting Job = job_201410300915_0009, Tracking URL = http://node1:50030/jobdetails.jsp?jobid=job_201410300915_0009Kill Command = /usr1/hadoop/libexec/../bin/hadoop job  -Dmapred.job.tracker=http://192.168.56.101:9001 -kill job_201410300915_0009Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 12014-10-30 15:25:10,652 Stage-1 map = 0%,  reduce = 0%2014-10-30 15:25:12,664 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:25:13,671 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:25:14,682 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:25:15,690 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:25:16,697 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:25:17,704 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:25:18,710 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:25:19,718 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:25:20,725 Stage-1 map = 100%,  reduce = 100%, Cumulative CPU 1.21 sec2014-10-30 15:25:21,730 Stage-1 map = 100%,  reduce = 100%, Cumulative CPU 1.21 sec2014-10-30 15:25:22,737 Stage-1 map = 100%,  reduce = 100%, Cumulative CPU 1.21 secMapReduce Total cumulative CPU time: 1 seconds 210 msecEnded Job = job_201410300915_0009MapReduce Jobs Launched: Job 0: Map: 1  Reduce: 1   Cumulative CPU: 1.21 sec   HDFS Read: 568052 HDFS Write: 6 SUCCESSTotal MapReduce CPU Time Spent: 1 seconds 210 msecOK10001Time taken: 14.742 seconds

可以看到這里表記錄數是10001,下面我們在myfile目錄下添加另外一個文件tb_class_bak.txt

4.在myfile目錄下添加文本$hadoop fs -cp /user/hadoop1/myfile/tb_class.txt /user/hadoop1/myfile/tb_class_bak.txt

5.再次查詢表記錄數hive (hxl)> select count(1) from tb_class_info_external;Total MapReduce jobs = 1Launching Job 1 out of 1Number of reduce tasks determined at compile time: 1In order to change the average load for a reducer (in bytes):  set hive.exec.reducers.bytes.per.reducer=In order to limit the maximum number of reducers:  set hive.exec.reducers.max=In order to set a constant number of reducers:  set mapred.reduce.tasks=Starting Job = job_201410300915_0010, Tracking URL = http://node1:50030/jobdetails.jsp?jobid=job_201410300915_0010Kill Command = /usr1/hadoop/libexec/../bin/hadoop job  -Dmapred.job.tracker=http://192.168.56.101:9001 -kill job_201410300915_0010Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 12014-10-30 15:32:02,275 Stage-1 map = 0%,  reduce = 0%2014-10-30 15:32:04,286 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:32:05,292 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:32:06,300 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:32:07,306 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:32:08,313 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:32:09,319 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:32:10,327 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:32:11,331 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 0.48 sec2014-10-30 15:32:12,338 Stage-1 map = 100%,  reduce = 100%, Cumulative CPU 1.16 sec2014-10-30 15:32:13,343 Stage-1 map = 100%,  reduce = 100%, Cumulative CPU 1.16 sec2014-10-30 15:32:14,350 Stage-1 map = 100%,  reduce = 100%, Cumulative CPU 1.16 secMapReduce Total cumulative CPU time: 1 seconds 160 msecEnded Job = job_201410300915_0010MapReduce Jobs Launched: Job 0: Map: 1  Reduce: 1   Cumulative CPU: 1.16 sec   HDFS Read: 1135971 HDFS Write: 6 SUCCESSTotal MapReduce CPU Time Spent: 1 seconds 160 msecOK20002Time taken: 14.665 seconds

可以看到記錄數加倍了,那就說明表已經讀取了新增加的文件.

6.刪除表hive (hxl)> drop table tb_class_info_external;OKTime taken: 1.7 seconds

表對應的文件并沒有刪除[hadoop1@node1]$ hadoop fs -ls /user/hadoop1/myfile/Found 2 items-rw-r--r--   3 hadoop1 supergroup     567839 2014-10-29 16:50 /user/hadoop1/myfile/tb_class.txt-rw-r--r--   3 hadoop1 supergroup     567839 2014-10-30 15:28 /user/hadoop1/myfile/tb_class_bak.txt

------------------------------------------------------外部分區表-------------------------------------------------

1.創建外部表目錄[flowrate@richinfo109 ~]$ hadoop fs -mkdir /tmp/bill/20161206[flowrate@richinfo109 ~]$ hadoop fs -mkdir /tmp/bill/20161206/18

2.拷貝文件到外部表目錄hadoop fs -cp /hive/warehouse/richmail.db/t_part_usernumber_t1/statedate=20161206/provcode=18/b.txt /tmp/bill/20161206/18/b.txt

3.創建分區表create external table t_part_ext_usernumber_t1( usernumber string)partitioned by(statedate string,provcode string)row format delimitedfields terminated by '|';

4.新添加分區,指定外部目錄alter table t_part_ext_usernumber_t1 add partition(statedate='20161206',provcode='18') location '/tmp/bill/20161206/18';

5.查看數據select * from t_part_ext_usernumber_t1;


發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
欧美高清在线播放| 精品亚洲一区二区三区| 国产精品视频xxx| 欧美高跟鞋交xxxxhd| 国产成人精品免高潮费视频| 欧美日韩中文字幕在线| 色偷偷888欧美精品久久久| 夜夜嗨av一区二区三区免费区| 久久久久久久av| 午夜精品一区二区三区av| 欧美日韩在线视频一区| 青草成人免费视频| 亚洲国产精彩中文乱码av在线播放| 日av在线播放中文不卡| 国产日产亚洲精品| 国产欧美日韩免费| 亚洲成人黄色在线| 国产一区二区日韩| 狠狠色噜噜狠狠狠狠97| 亚洲国产欧美精品| 欧美怡红院视频一区二区三区| 中文字幕亚洲图片| 色哟哟亚洲精品一区二区| 亚洲a一级视频| 国产成+人+综合+亚洲欧洲| 国产精品久久久久久亚洲影视| 91香蕉亚洲精品| 欧美大片欧美激情性色a∨久久| 欧美激情一区二区久久久| 欧亚精品中文字幕| 欧美黑人巨大精品一区二区| 国产综合香蕉五月婷在线| 亚洲欧美制服另类日韩| 亚洲美女自拍视频| 精品国产1区2区| 国产精品美女视频网站| 色久欧美在线视频观看| 九九精品视频在线| 欧美中文字幕精品| 麻豆国产精品va在线观看不卡| 综合激情国产一区| 欧美成人性生活| 欧美多人乱p欧美4p久久| 国产精品美女久久久久av超清| 亚洲成人a**站| 欧美精品一本久久男人的天堂| 亚洲欧美日韩一区二区三区在线| 欧美极品在线视频| 精品国产精品三级精品av网址| 亚洲欧美日韩天堂一区二区| 91精品国产91久久久久久吃药| 欧美黑人一级爽快片淫片高清| 国产中文字幕日韩| 久久久中精品2020中文| 精品少妇一区二区30p| 亚洲黄色av网站| 欧美一区二三区| 久久久久国产精品免费网站| 欧美一级电影免费在线观看| 国产精品电影一区| 亚洲成人久久久| 亚洲自拍欧美另类| 亚洲综合一区二区不卡| 成人高h视频在线| 日韩毛片在线看| 狠狠躁18三区二区一区| 色爱精品视频一区| 九九精品在线观看| 久久天堂av综合合色| 91久久久亚洲精品| 波霸ol色综合久久| 中文字幕av一区二区三区谷原希美| 国产一区二中文字幕在线看| 欧美日本国产在线| 国产精品网站入口| 国产在线一区二区三区| 91九色国产视频| 伊人男人综合视频网| 欧美性高潮床叫视频| 亚洲精品日韩激情在线电影| 91av免费观看91av精品在线| 午夜精品福利在线观看| 色多多国产成人永久免费网站| 国产成人综合精品在线| 亚洲美女性视频| 日韩欧美福利视频| 日韩电影在线观看中文字幕| 精品国产电影一区| 欧美激情视频在线| 欧美日韩国产综合视频在线观看中文| 国产福利视频一区| 国产精品亚洲网站| 亚洲精品99久久久久中文字幕| 亚洲乱码一区二区| 精品一区二区三区三区| 91精品视频播放| 亚洲精品99久久久久中文字幕| 成人在线视频网| 日韩av成人在线观看| 久久久久这里只有精品| 亚洲美女av在线| 日本精品va在线观看| 欧美一级淫片播放口| 深夜福利亚洲导航| 福利视频导航一区| 久久在线免费视频| 欧美大片免费观看在线观看网站推荐| 51精品国产黑色丝袜高跟鞋| 欧美成人免费全部观看天天性色| 亚洲乱码国产乱码精品精天堂| 国产精品视频在线观看| 久久久久久久久91| 最近的2019中文字幕免费一页| 欧美激情精品久久久久久大尺度| 综合国产在线观看| 亚洲区免费影片| 亚洲精品视频中文字幕| 久久久国产精品亚洲一区| 久久精品视频亚洲| 亚洲男人第一网站| 欧美日韩美女在线观看| 久久久视频精品| 欧美午夜片欧美片在线观看| 欧美性视频精品| 9.1国产丝袜在线观看| 国产精品久久久久久久av大片| 国产在线视频2019最新视频| 免费av在线一区| 亚洲a在线播放| 在线看片第一页欧美| 国模私拍一区二区三区| 亚洲欧美日韩国产中文专区| 久久99国产精品自在自在app| 精品中文字幕视频| 亚洲免费电影一区| 欧美电影免费看| 亚洲高清色综合| 亚洲高清在线观看| 欧美国产精品va在线观看| 欧美日韩亚洲一区二区| 亚洲国产精品999| 久久天堂av综合合色| 国产精品成人久久久久| 国产精品久久久久久超碰| 中文字幕九色91在线| 亚洲丝袜av一区| 国产精品欧美亚洲777777| 精品视频在线播放色网色视频| 91精品国产综合久久香蕉922| 久久免费视频这里只有精品| 欧美裸体男粗大视频在线观看| 日韩福利视频在线观看| 国产亚洲视频中文字幕视频| 欧美国产日韩一区二区在线观看| 成人国内精品久久久久一区| 亚洲精品久久在线| 欧美一级片久久久久久久| 亚洲欧洲美洲在线综合| 欧美电影在线免费观看网站| 亚洲视频自拍偷拍| 日韩欧美精品中文字幕| 亚洲精品短视频| 久久99青青精品免费观看| 久久五月天综合|