亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 服務器 > Web服務器 > 正文

yum安裝CDH5.5 hive、impala的過程詳解

2024-09-01 13:48:34
字體:
來源:轉載
供稿:網友

一、安裝hive

組件安排如下:

172.16.57.75 bd-ops-test-75 mysql-server172.16.57.77 bd-ops-test-77 Hiveserver2 HiveMetaStore

1.安裝hive

在77上安裝hive:

# yum install hive hive-metastore hive-server2 hive-jdbc hive-hbase -y

在其他節點上可以安裝客戶端:

# yum install hive hive-server2 hive-jdbc hive-hbase -y

2.安裝mysql

yum方式安裝mysql:

# yum install mysql mysql-devel mysql-server mysql-libs -y

啟動數據庫:

# 配置開啟啟動# chkconfig mysqld on# service mysqld start

安裝jdbc驅動:

# yum install mysql-connector-java# ln -s /usr/share/java/mysql-connector-java.jar /usr/lib/hive/lib/mysql-connector-java.jar

設置mysql初始密碼為bigdata:

# mysqladmin -uroot password 'bigdata'

進入數據庫后執行如下:

CREATE DATABASE metastore;USE metastore;SOURCE /usr/lib/hive/scripts/metastore/upgrade/mysql/hive-schema-1.1.0.mysql.sql;CREATE USER 'hive'@'localhost' IDENTIFIED BY 'hive';GRANT ALL PRIVILEGES ON metastore.* TO 'hive'@'localhost';GRANT ALL PRIVILEGES ON metastore.* TO 'hive'@'%';FLUSH PRIVILEGES;

注意:創建的用戶為 hive,密碼為 hive ,你可以按自己需要進行修改。

修改 hive-site.xml 文件中以下內容:

<property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://172.16.57.75:3306/metastore?useUnicode=true&characterEncoding=UTF-8</value></property><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value></property>

3.配置hive

修改/etc/hadoop/conf/hadoop-env.sh,添加環境變量 HADOOP_MAPRED_HOME,如果不添加,則當你使用 yarn 運行 mapreduce 時候會出現 UNKOWN RPC TYPE 的異常

export HADOOP_MAPRED_HOME=/usr/lib/hadoop-mapreduce

在 hdfs 中創建 hive 數據倉庫目錄:

hive 的數據倉庫在 hdfs 中默認為 /user/hive/warehouse,建議修改其訪問權限為 1777,以便其他所有用戶都可以創建、訪問表,但不能刪除不屬于他的表。

每一個查詢 hive 的用戶都必須有一個 hdfs 的 home 目錄( /user 目錄下,如 root 用戶的為 /user/root)
hive 所在節點的 /tmp 必須是 world-writable 權限的。

創建目錄并設置權限:

# sudo -u hdfs hadoop fs -mkdir /user/hive# sudo -u hdfs hadoop fs -chown hive /user/hive# sudo -u hdfs hadoop fs -mkdir /user/hive/warehouse# sudo -u hdfs hadoop fs -chmod 1777 /user/hive/warehouse# sudo -u hdfs hadoop fs -chown hive /user/hive/warehouse

修改hive-env設置jdk環境變量 :

# vim /etc/hive/conf/hive-env.shexport JAVA_HOME=/opt/programs/jdk1.7.0_67

啟動hive-server和metastore:

# service hive-metastore start# service hive-server2 start

4、測試

$ hive -e'create table t(id int);'$ hive -e'select * from t limit 2;'$ hive -e'select id from t;'

訪問beeline:

$ beelinebeeline> !connect jdbc:hive2://localhost:10000;

5、與hbase集成

先安裝 hive-hbase:

# yum install hive-hbase -y

如果你是使用的 cdh4,則需要在 hive shell 里執行以下命令添加 jar:

$ ADD JAR /usr/lib/hive/lib/zookeeper.jar;$ ADD JAR /usr/lib/hive/lib/hbase.jar;$ ADD JAR /usr/lib/hive/lib/hive-hbase-handler-<hive_version>.jar# guava 包的版本以實際版本為準。$ ADD JAR /usr/lib/hive/lib/guava-11.0.2.jar;

如果你是使用的 cdh5,則需要在 hive shell 里執行以下命令添加 jar:

ADD JAR /usr/lib/hive/lib/zookeeper.jar;ADD JAR /usr/lib/hive/lib/hive-hbase-handler.jar;ADD JAR /usr/lib/hbase/lib/guava-12.0.1.jar;ADD JAR /usr/lib/hbase/hbase-client.jar;ADD JAR /usr/lib/hbase/hbase-common.jar;ADD JAR /usr/lib/hbase/hbase-hadoop-compat.jar;ADD JAR /usr/lib/hbase/hbase-hadoop2-compat.jar;ADD JAR /usr/lib/hbase/hbase-protocol.jar;ADD JAR /usr/lib/hbase/hbase-server.jar;

以上你也可以在 hive-site.xml 中通過 hive.aux.jars.path 參數來配置,或者你也可以在 hive-env.sh 中通過 export HIVE_AUX_JARS_PATH= 來設置。

二、安裝impala

與Hive類似,Impala也可以直接與HDFS和HBase庫直接交互。只不過Hive和其它建立在MapReduce上的框架適合需要長時間運行的批處理任務。例如:那些批量提取,轉化,加載(ETL)類型的Job,而Impala主要用于實時查詢。

組件分配如下:

172.16.57.74 bd-ops-test-74 impala-state-store impala-catalog impala-server 172.16.57.75 bd-ops-test-75 impala-server172.16.57.76 bd-ops-test-76 impala-server172.16.57.77 bd-ops-test-77 impala-server

1、安裝

在74節點安裝:

yum install impala-state-store impala-catalog impala-server -y

在75、76、77節點上安裝:

yum install impala-server -y

2、配置

2.1修改配置文件

查看安裝路徑:

# find / -name impala/var/run/impala/var/lib/alternatives/impala/var/log/impala/usr/lib/impala/etc/alternatives/impala/etc/default/impala/etc/impala/etc/default/impala

impalad的配置文件路徑由環境變量IMPALA_CONF_DIR指定,默認為/usr/lib/impala/conf,impala 的默認配置在/etc/default/impala,修改該文件中的 IMPALA_CATALOG_SERVICE_HOST 和 IMPALA_STATE_STORE_HOST

IMPALA_CATALOG_SERVICE_HOST=bd-ops-test-74IMPALA_STATE_STORE_HOST=bd-ops-test-74IMPALA_STATE_STORE_PORT=24000IMPALA_BACKEND_PORT=22000IMPALA_LOG_DIR=/var/log/impalaIMPALA_CATALOG_ARGS=" -log_dir=${IMPALA_LOG_DIR} -sentry_config=/etc/impala/conf/sentry-site.xml"IMPALA_STATE_STORE_ARGS=" -log_dir=${IMPALA_LOG_DIR} -state_store_port=${IMPALA_STATE_STORE_PORT}"IMPALA_SERVER_ARGS=" /-log_dir=${IMPALA_LOG_DIR} /-use_local_tz_for_unix_timestamp_conversions=true /-convert_legacy_hive_parquet_utc_timestamps=true /-catalog_service_host=${IMPALA_CATALOG_SERVICE_HOST} /-state_store_port=${IMPALA_STATE_STORE_PORT} /-use_statestore /-state_store_host=${IMPALA_STATE_STORE_HOST} /-be_port=${IMPALA_BACKEND_PORT} /-server_name=server1/-sentry_config=/etc/impala/conf/sentry-site.xml"ENABLE_CORE_DUMPS=false# LIBHDFS_OPTS=-Djava.library.path=/usr/lib/impala/lib# MYSQL_CONNECTOR_JAR=/usr/share/java/mysql-connector-java.jar# IMPALA_BIN=/usr/lib/impala/sbin# IMPALA_HOME=/usr/lib/impala# HIVE_HOME=/usr/lib/hive# HBASE_HOME=/usr/lib/hbase# IMPALA_CONF_DIR=/etc/impala/conf# HADOOP_CONF_DIR=/etc/impala/conf# HIVE_CONF_DIR=/etc/impala/conf# HBASE_CONF_DIR=/etc/impala/conf

設置 impala 可以使用的最大內存:在上面的 IMPALA_SERVER_ARGS 參數值后面添加 -mem_limit=70% 即可。

如果需要設置 impala 中每一個隊列的最大請求數,需要在上面的 IMPALA_SERVER_ARGS 參數值后面添加 -default_pool_max_requests=-1 ,該參數設置每一個隊列的最大請求數,如果為-1,則表示不做限制。

在節點74上創建hive-site.xml、core-site.xml、hdfs-site.xml的軟鏈接至/etc/impala/conf目錄并作下面修改在hdfs-site.xml文件中添加如下內容:

<property><name>dfs.client.read.shortcircuit</name><value>true</value></property><property><name>dfs.domain.socket.path</name><value>/var/run/hadoop-hdfs/dn._PORT</value></property><property><name>dfs.datanode.hdfs-blocks-metadata.enabled</name><value>true</value></property>

同步以上文件到其他節點。

2.2創建socket path

在每個節點上創建/var/run/hadoop-hdfs:

# mkdir -p /var/run/hadoop-hdfs

2.3用戶要求

impala 安裝過程中會創建名為 impala 的用戶和組,不要刪除該用戶和組。

如果想要 impala 和 YARN 和 Llama 合作,需要把 impala 用戶加入 hdfs 組。

impala 在執行 DROP TABLE 操作時,需要把文件移到到 hdfs 的回收站,所以你需要創建一個 hdfs 的目錄 /user/impala,并將其設置為impala 用戶可寫。同樣的,impala 需要讀取 hive 數據倉庫下的數據,故需要把 impala 用戶加入 hive 組。

impala 不能以 root 用戶運行,因為 root 用戶不允許直接讀。

創建 impala 用戶家目錄并設置權限:

sudo -u hdfs hadoop fs -mkdir /user/impalasudo -u hdfs hadoop fs -chown impala /user/impala

查看 impala 用戶所屬的組:

# groups impalaimpala : impala hadoop hdfs hive

由上可知,impala 用戶是屬于 imapal、hadoop、hdfs、hive 用戶組的 。

2.4啟動服務

在 74節點啟動:

# service impala-state-store start# service impala-catalog start

2.5使用impala-shell

使用impala-shell啟動Impala Shell,連接 74,并刷新元數據

#impala-shell Starting Impala Shell without Kerberos authenticationConnected to bd-dev-hadoop-70:21000Server version: impalad version 2.3.0-cdh5.5.1 RELEASE (build 73bf5bc5afbb47aa7eab06cfbf6023ba8cb74f3c)***********************************************************************************Welcome to the Impala shell. Copyright (c) 2015 Cloudera, Inc. All rights reserved.(Impala Shell v2.3.0-cdh5.5.1 (73bf5bc) built on Wed Dec 2 10:39:33 PST 2015)After running a query, type SUMMARY to see a summary of where time was spent.***********************************************************************************[bd-dev-hadoop-70:21000] > invalidate metadata;

當在 Hive 中創建表之后,第一次啟動 impala-shell 時,請先執行 INVALIDATE METADATA 語句以便 Impala 識別出新創建的表(在 Impala 1.2 及以上版本,你只需要在一個節點上運行 INVALIDATE METADATA ,而不是在所有的 Impala 節點上運行)。

你也可以添加一些其他參數,查看有哪些參數:

#impala-shell -hUsage: impala_shell.py [options]Options:-h, --help show this help message and exit-i IMPALAD, --impalad=IMPALAD<host:port> of impalad to connect to[default: bd-dev-hadoop-70:21000]-q QUERY, --query=QUERYExecute a query without the shell [default: none]-f QUERY_FILE, --query_file=QUERY_FILEExecute the queries in the query file, delimited by ;[default: none]-k, --kerberos Connect to a kerberized impalad [default: False]-o OUTPUT_FILE, --output_file=OUTPUT_FILEIf set, query results are written to the given file.Results from multiple semicolon-terminated querieswill be appended to the same file [default: none]-B, --delimited Output rows in delimited mode [default: False]--print_header Print column names in delimited mode when pretty-printed. [default: False]--output_delimiter=OUTPUT_DELIMITERField delimiter to use for output in delimited mode[default: /t]-s KERBEROS_SERVICE_NAME, --kerberos_service_name=KERBEROS_SERVICE_NAMEService name of a kerberized impalad [default: impala]-V, --verbose Verbose output [default: True]-p, --show_profiles Always display query profiles after execution[default: False]--quiet Disable verbose output [default: False]-v, --version Print version information [default: False]-c, --ignore_query_failureContinue on query failure [default: False]-r, --refresh_after_connectRefresh Impala catalog after connecting[default: False]-d DEFAULT_DB, --database=DEFAULT_DBIssues a use database command on startup[default: none]-l, --ldap Use LDAP to authenticate with Impala. Impala must beconfigured to allow LDAP authentication.[default: False]-u USER, --user=USER User to authenticate with. [default: root]--ssl Connect to Impala via SSL-secured connection[default: False]--ca_cert=CA_CERT Full path to certificate file used to authenticateImpala's SSL certificate. May either be a copy ofImpala's certificate (for self-signed certs) or thecertificate of a trusted third-party CA. If not set,but SSL is enabled, the shell will NOT verify Impala'sserver certificate [default: none]--config_file=CONFIG_FILESpecify the configuration file to load options. Filemust have case-sensitive '[impala]' header. Specifyingthis option within a config file will have no effect.Only specify this as a option in the commandline.[default: /root/.impalarc]--live_summary Print a query summary every 1s while the query isrunning. [default: False]--live_progress Print a query progress every 1s while the query isrunning. [default: False]--auth_creds_ok_in_clearIf set, LDAP authentication may be used with aninsecure connection to Impala. WARNING: Authenticationcredentials will therefore be sent unencrypted, andmay be vulnerable to attack. [default: none]

使用 impala 導出數據:

impala-shell -i '172.16.57.74:21000' -r -q "select * from test" -B --output_delimiter="/t" -o result.txt

以上所述是小編給大家介紹的yum安裝CDH5.5 hive、impala的過程詳解,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復大家的。在此也非常感謝大家對VEVB武林網網站的支持!


發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
91精品视频网站| 国产欧美日韩专区发布| 欧美在线视频免费播放| 国产美女直播视频一区| 国产精品2018| 欧美视频在线观看免费| 色偷偷综合社区| 97精品伊人久久久大香线蕉| 欧美视频二区36p| 亚洲最大av网站| 午夜伦理精品一区| 国产伦精品一区二区三区精品视频| 亚洲国产成人一区| 国外色69视频在线观看| 国产精品激情av电影在线观看| 色噜噜亚洲精品中文字幕| 国产日本欧美一区二区三区| 欧美成年人在线观看| 欧美精品激情视频| 丝袜亚洲另类欧美重口| 91在线观看免费网站| 成人免费视频xnxx.com| 亚洲在线第一页| 亚洲第一免费播放区| 国产一区二区免费| 欧美极品少妇xxxxⅹ免费视频| 日韩av中文字幕在线| 26uuu国产精品视频| 欧美黑人狂野猛交老妇| 国产精品夜色7777狼人| 亚洲另类图片色| 永久555www成人免费| 欧美午夜视频一区二区| 97视频在线观看网址| 91国内精品久久| 亚洲自拍另类欧美丝袜| 欧美视频在线观看免费| www.日韩系列| 日韩欧美成人精品| 久久久久久高潮国产精品视| 热re99久久精品国产66热| 国产精品18久久久久久首页狼| 成人免费观看网址| 成人欧美一区二区三区在线| 欧美视频在线观看 亚洲欧| 欧美老女人在线视频| 成人国产精品一区| 国产国语刺激对白av不卡| 精品久久久久久亚洲国产300| 色狠狠久久aa北条麻妃| 欧美不卡视频一区发布| 91九色精品视频| 欧美成人在线网站| 亚洲人成网站777色婷婷| 午夜精品三级视频福利| 欧美精品久久久久久久久久| 欧美在线精品免播放器视频| 亚洲一区美女视频在线观看免费| 韩国v欧美v日本v亚洲| 精品亚洲男同gayvideo网站| 按摩亚洲人久久| 亚洲在线观看视频| 日韩网站免费观看| 亚洲a在线观看| 久久精品在线视频| 日韩三级影视基地| 国产精品九九久久久久久久| 美女撒尿一区二区三区| 日韩精品视频在线观看免费| 国内精品国产三级国产在线专| 国模视频一区二区| 日本aⅴ大伊香蕉精品视频| 日韩精品免费观看| www.久久撸.com| 福利微拍一区二区| 日韩在线精品视频| 国产精品国产三级国产aⅴ9色| 亚洲缚视频在线观看| 国产欧美日韩精品专区| 成人在线免费观看视视频| 日韩在线视频免费观看高清中文| 最近免费中文字幕视频2019| 91亚洲精品在线| 亚洲人成亚洲人成在线观看| www国产亚洲精品久久网站| 欧美日韩综合视频网址| 亚洲国产中文字幕在线观看| 成人高h视频在线| 国产亚洲一区二区精品| 亚洲精品国产精品乱码不99按摩| 亚洲自拍欧美另类| 国产91免费看片| 狠狠色狠狠色综合日日五| 91精品国产高清自在线看超| 色综合伊人色综合网站| 亚洲国产成人精品久久| 亚洲精品一区二区在线| 亚州国产精品久久久| 最近2019年手机中文字幕| 国产日韩欧美中文| 亚洲一区二区日本| 欧美午夜www高清视频| 国产精品美女av| 亚洲天堂av图片| 国产99久久精品一区二区| 亚洲精品二三区| 97av在线影院| 奇米成人av国产一区二区三区| 韩日欧美一区二区| 亚洲在线免费观看| 欧美电影院免费观看| 欧美性在线视频| 91在线观看免费观看| 91免费在线视频| 亚洲欧洲一区二区三区久久| 欧美极品在线视频| 欧美一区二区三区图| 亚洲国产精品va| 亚洲美女福利视频网站| 欧美日韩精品国产| 国产精品福利在线观看网址| 欧美成人自拍视频| 欧美亚洲午夜视频在线观看| 国产a级全部精品| 中文字幕亚洲一区二区三区五十路| 最近2019好看的中文字幕免费| 日韩人体视频一二区| 国产亚洲人成a一在线v站| 国产成人在线视频| 欧美日韩中文字幕在线| 久久综合国产精品台湾中文娱乐网| 不用播放器成人网| 亚洲精品av在线| 国产一区二区在线播放| 国产在线精品一区免费香蕉| 亚洲视频777| 欧美日韩人人澡狠狠躁视频| 亚洲国产成人爱av在线播放| 一级做a爰片久久毛片美女图片| 97色在线视频观看| 久久国内精品一国内精品| 中文字幕精品www乱入免费视频| 精品久久中文字幕| 成人美女免费网站视频| 日本韩国欧美精品大片卡二| 夜夜嗨av色综合久久久综合网| 色综合久综合久久综合久鬼88| 国产精品中文久久久久久久| 成人网在线免费观看| 欧美亚洲日本黄色| 国产精品美女免费看| 国产成人精品国内自产拍免费看| 九九久久久久99精品| 91精品国产高清自在线看超| 日韩av免费在线播放| 亚洲裸体xxxx| 亚洲日韩欧美视频| 不卡av电影院| 91精品在线观| 国自在线精品视频| 91色p视频在线| 日韩电影中文字幕| 91免费精品视频| 日日噜噜噜夜夜爽亚洲精品|