亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 學院 > 操作系統 > 正文

安裝zeppelin安裝spark ha集群

2024-06-28 16:01:16
字體:
來源:轉載
供稿:網友
安裝zeppelin 1.默認安裝好spark集群2.安裝zeppelin    1.解壓安裝包        tar zxvf zeppelin-0.5.5-incubating-bin-all.tgz    2.配置環境變量        vim /etc/PRofile                 #zeppelin        export ZEPPELIN_HOME=/opt/zeppelin-0.5.5                 #CLASSPATH        export CLASSPATH=$CLASSPATH:$ZEPPELIN_HOME/lib                 #PATH        export PATH=$PATH:$ZEPPELIN_HOME/bin         

        保存退出

         source /etc/profile

我們的/etc/profile配置如下

export LANG=zh_CN.GBK

export LC_ALL=zh_CN.GBK

export PATH=$PATH:/usr/local/python2.7.6/bin/

export java_HOME=/usr/java/jdk1.8.0_101

export CLASSPATH=$JAVA_HOME/lib/tools.jar

export PATH=$JAVA_HOME/bin:$PATH

export PATH="/usr/local/MySQL/bin:$PATH"

#set for nodejs

export NODE_HOME=/usr/local/nodejs

export PATH=$NODE_HOME/bin:$PATH

PATH="/usr/local/mysql/bin:$PATH"

        

    3.修改配置文件        cd /opt/zeppelin-0.5.5                 1.根據模板復制相關配置文件            cp zeppelin-env.sh.template zeppelin-env.sh            cp zeppelin-site.xml.template zeppelin-site.xml        2.創建相關目錄            mkdir /opt/zeppelin-0.5.5/logs            mkdir /opt/zeppelin-0.5.5/tmp        3.修改配置文件參數                     ####zeppelin-env.sh####            export JAVA_HOME=/usr/java/jdk1.8.0_65            export HADOOP_CONF_DIR=/opt/hadoop-2.5.2/etc/hadoop   //如果需要讀取hdfs的文件  則必須配置此條             export MASTER=spark://hadoop.master:7077      //使用spark 集群模式            export SPARK_HOME=/opt/spark-1.6.0            export SPARK_SUBMIT_OPTIONS="--driver-memory 500M --executor-memory 500m"   //可以根據實際內存情況進行調整             export ZEPPELIN_JAVA_OPTS="-Dspark.executor.memory=500m -Dspark.cores.max=1"  //可以根據實際內存情況進行調整            export ZEPPELIN_MEM="-Xmx500m -XX:MaxPermSize=500m"     //可以根據實際內存情況進行調整            export ZEPPELIN_LOG_DIR=/opt/zeppelin-0.5.6/logs

             

我們的zeppelin-env.sh配置如下

export  SPARK_MASTER_ip=127.0.0.1

export  SPARK_LOCAL_IP=127.0.0.1

export ZEPPELIN_MEM="-Xms1024m -Xmx16384m -XX:MaxPermSize=16384m"

                         ####zeppelin-site.xml####            <property>              <name>zeppelin.server.addr</name>              <value>hadoop.slaver3</value>         //主機名或Ip  當前主機              <description>Server address</description>            </property>             <property>              <name>zeppelin.server.port</name>              <value>8084</value>                        //不一定非要一致  但這個端口是通過web訪問的端口              <description>Server port.</description>            </property>

             

        4.啟動            zeppelin-daemon.sh start        5.驗證            主機名:端口    //能顯示界面則表示安裝成功            

安裝spark ha集群

1.默認安裝好hadoop+zookeeper2.安裝scala    1.解壓安裝包        tar zxvf scala-2.11.7.tgz    2.配置環境變量        vim /etc/profile                 #scala        export SCALA_HOME=/opt/scala-2.11.7                 #CLASSPATH        export CLASSPATH=$CLASSPATH:$SCALA_HOME/lib                 #PATH        export PATH=$PATH:$SCALA_HOME/bin                 保存退出                 source /etc/profile    3.驗證        scala -version                 3.安裝spark    1.解壓安裝包        tar zxvf spark-1.6.0-bin-hadoop2.4.tgz    2.配置環境變量        vim /etc/profile                 #spark        export SPARK_HOME=/opt/spark-1.6.0                 #CLASSPATH        export CLASSPATH=$CLASSPATH:$SPARK_HOME/lib                 #PATH        export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin                 保存退出         

        source /etc/profile

我們的/etc/profile配置如下

export LANG=zh_CN.GBK

export LC_ALL=zh_CN.GBK

export PATH=$PATH:/usr/local/python2.7.6/bin/

export JAVA_HOME=/usr/java/jdk1.8.0_101

export CLASSPATH=$JAVA_HOME/lib/tools.jar

export PATH=$JAVA_HOME/bin:$PATH

export PATH="/usr/local/mysql/bin:$PATH"

#set for nodejs

export NODE_HOME=/usr/local/nodejs

export PATH=$NODE_HOME/bin:$PATH

PATH="/usr/local/mysql/bin:$PATH"

         

    3.修改配置文件        1.根據模板復制相關配置文件            cp spark-env.sh.template spark-env.sh            cp slaves.template slaves            cp log4j.properties.template log4j.properties            cp spark-defaults.conf.template spark-defaults.conf        2.創建相關目錄            mkdir /opt/spark-1.6.0/logs            mkdir /opt/spark-1.6.0/tmp            hadoop fs -mkdir /spark //在hdfs上創建存儲spark的任務日志文件        3.修改配置文件參數            ####spark-env.sh#### 最后加入 其中hadoop.master為主節點 hadoop.slaver1為備份主節點            export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop.master:2181,hadoop.slaver1:2181 -Dspark.deploy.zookeeper.dir=/spark"            export JAVA_HOME=/usr/java/jdk1.8.0_65            export SPARK_WORKER_CORES=1            export SPARK_WORKER_INSTANCES=1

            export SPARK_WORKER_MEMORY=1g

我們的spark-env.sh配置如下

export SPARK_DIST_CLASSPATH=$(/home/haoren/soft/hadoop/bin/hadoop classpath)

#export SPARK_CLASSPATH=$SPARK_CLASSPATH:/home/ztgame/soft/mysql-connector-java-5.1.40.jar

#export SPARK_MASTER_PORT=17077

#export SPARK_MASTER_HOST=222.192.205.26

#export SPARK_MASTER_WEBUI_PORT=18082

?

             

            ####slaves####將所有的從節點主機名加入            hadoop.slaver1            hadoop.slaver2            hadoop.slaver3                         ####log4j.properties####            無需修改                                      ####spark-defaults.conf####            spark.eventLog.enabled  true            spark.eventLog.dir      hdfs://ns1:8020/spark            spark.history.fs.logDirectory      hdfs://ns1:8020/spark            spark.eventLog.compress true                 4.分發到各個節點        scp -r /opt/spark-1.6.0 hadoop@hadoop.slaver1:/opt        scp -r /opt/spark-1.6.0 hadoop@hadoop.slaver2:/opt        scp -r /opt/spark-1.6.0 hadoop@hadoop.slaver3:/opt    5.啟動        //先啟動zookeeper 和 hdfs        sbin/start-all.sh   //注意切換目錄  不然跟hadoop的start-all 沖突                 spark-shell --master spark://hadoop.master:7077  //集群模式啟動客戶端        spark-shell     //單機模式啟動客戶端    6.驗證        1.jps        2.web            節點主機名:8080  //如果采用默認端口的話則是8080  主節點web            節點主機名:18080  //主節點 歷史任務web            節點主機名:4040   //子節點正在進行任務web        3.HA            在備份主機節點執行 start-master.sh命令            然后在主機節點把master進程kill掉,此時會自行切換至備份節點(需要幾秒鐘的緩沖時間)    7.常用命令        1.啟動            start-all.sh  //注意切換目錄            start-master.sh            stop-master.sh            start-slave.sh 主節點:7077  //默認端口  如果不修改的話            start-history-server.sh   //啟動任務歷史服務        2.使用            1.本機模式                運行 spark-shell            2.yarn                打包運行jar包                spark-submit                --master spark://spark113:7077                --class org.apache.spark.examples.SparkPi                --name Spark-Pi --executor-memory 400M                --driver-memory 512M                /opt/spark-1.6.0/lib/spark-examples-1.6.0-hadoop2.4.0.jar            3.Wordcount                val file=sc.textFile("hdfs://ns1:8020/huangzhijian/test.dat")                val count=file.flatMap(line => line.split(" ")).map(word => (word,1)).reduceByKey(_+_)                count.saveAsTextFile("hdfs://ns1:8020/output")  //需保證hdfs上該目錄不存在             轉自http://www.CUOXin.com/ciade/p/5141264.html
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
在线播放国产精品| 91久久精品久久国产性色也91| 国产91免费看片| 青草成人免费视频| 欧美日韩国产精品专区| 日韩av免费在线观看| 精品国模在线视频| 亚洲高清在线观看| 夜夜躁日日躁狠狠久久88av| 成人免费网站在线看| 日韩午夜在线视频| 4388成人网| 精品中文字幕久久久久久| 性色av一区二区咪爱| 欧美午夜精品久久久久久久| 日本国产欧美一区二区三区| 国产精品高潮呻吟久久av野狼| 亚洲一区二区中文| 亚洲老司机av| 亚洲精品欧美日韩专区| 国产精品黄色影片导航在线观看| 亚洲成人久久电影| 亚洲免费电影在线观看| 国内免费精品永久在线视频| 国产精品入口夜色视频大尺度| 日韩av毛片网| 26uuu国产精品视频| 国产91对白在线播放| 日韩欧美在线免费观看| 久久精品国产亚洲精品| 美女视频黄免费的亚洲男人天堂| 久久国产精品影片| 欧美日韩国产一区中文午夜| 久久精品久久久久久国产 免费| 亚洲品质视频自拍网| 亚洲成人精品视频在线观看| 日韩在线不卡视频| 国产一区二区三区视频在线观看| 美日韩精品免费观看视频| 久久精品视频播放| 午夜精品99久久免费| 国产成人精品久久久| 日韩中文娱乐网| 欧美大尺度激情区在线播放| 欧美日韩在线视频首页| 91欧美精品午夜性色福利在线| 日韩中文字幕不卡视频| 亚洲高清久久久久久| 国产精品国产福利国产秒拍| 精品久久久久久久久久久久| 亚洲一区亚洲二区亚洲三区| 国产精品一区二区久久久久| 日韩小视频在线| 国产日韩视频在线观看| 91免费版网站入口| 日韩av在线网址| 国产精品美女在线| 亚洲加勒比久久88色综合| 国产精品视频一区二区三区四| 日韩禁在线播放| 亚洲第一男人天堂| 日韩激情片免费| 国产精品免费一区豆花| 亚洲成人三级在线| 亚洲二区在线播放视频| 成人黄色在线播放| 国产剧情久久久久久| 日韩精品一区二区三区第95| 欧美成aaa人片免费看| 国产在线精品播放| 国产69精品99久久久久久宅男| 国产成人精品一区| 国产一区二区三区在线观看网站| 91香蕉嫩草神马影院在线观看| 国产精品一香蕉国产线看观看| 国产日韩精品视频| 久久精品2019中文字幕| 91高清免费在线观看| 亚洲欧美国产精品专区久久| 97在线免费视频| 国产综合福利在线| 亚洲日本成人女熟在线观看| 亚洲日本成人女熟在线观看| 国产欧美在线看| 日本欧美一二三区| 国内精品久久久久影院 日本资源| 成人免费视频在线观看超级碰| 欧美激情a∨在线视频播放| 国产视频精品自拍| 成人激情春色网| 国产精品久久激情| 国产在线精品成人一区二区三区| 国产精品久在线观看| 欧美电影免费观看网站| 欧美激情在线一区| 久久99亚洲精品| 欧美性猛交xxxxx水多| 久久免费国产精品1| 91免费国产网站| 成人av在线网址| 亚洲日本成人女熟在线观看| 狠狠综合久久av一区二区小说| 精品中文视频在线| 一级做a爰片久久毛片美女图片| 国语自产精品视频在免费| 国内揄拍国内精品| 精品在线欧美视频| 亚洲91精品在线| 中文字幕亚洲欧美日韩2019| 久久视频在线播放| 日韩av在线免播放器| 国产精品久久电影观看| 亚洲午夜久久久久久久| 欧美xxxx做受欧美.88| 国产精品夜间视频香蕉| 亚洲伊人久久大香线蕉av| 日本aⅴ大伊香蕉精品视频| 国产一区私人高清影院| 成人h视频在线| 北条麻妃久久精品| 中文字幕国产亚洲2019| 欧美与黑人午夜性猛交久久久| 亚洲人成在线观看网站高清| 国产69精品久久久久久| 国产在线观看精品一区二区三区| 日韩极品精品视频免费观看| 一本色道久久综合狠狠躁篇的优点| 国产精品成人免费视频| 国产精品福利在线观看网址| 欧美日韩国产色视频| 国产成人精品一区二区| 精品国产鲁一鲁一区二区张丽| 久久这里只有精品视频首页| 国产精品久久久久久久久久三级| 欧美一区二区影院| 俺去啦;欧美日韩| 午夜欧美大片免费观看| 91亚洲va在线va天堂va国| 亚洲va欧美va国产综合久久| 日本精品一区二区三区在线播放视频| 日韩精品视频在线免费观看| 日韩中文字幕免费| 在线国产精品视频| 热久久视久久精品18亚洲精品| 日韩美女在线看| 亚洲国产精品久久精品怡红院| 美女视频黄免费的亚洲男人天堂| 国产精品丝袜久久久久久高清| 日韩免费精品视频| 日韩在线视频导航| 国产这里只有精品| 97欧美精品一区二区三区| 国产精品极品尤物在线观看| 亚洲欧美在线免费观看| 亚洲欧洲第一视频| 久久亚洲精品中文字幕冲田杏梨| 中文字幕久热精品视频在线| 高跟丝袜一区二区三区| 亚洲欧美国产精品久久久久久久| 欧美日韩一区二区三区在线免费观看| 欧美电影免费观看电视剧大全| 久久99精品久久久久久青青91| 亚洲va欧美va国产综合剧情| 亚洲日本中文字幕|