亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 學院 > 操作系統 > 正文

Zeppelin0.5.6使用spark解釋器

2024-06-28 16:01:34
字體:
來源:轉載
供稿:網友

Zeppelin為0.5.6

Zeppelin默認自帶本地spark,可以不依賴任何集群,下載bin包,解壓安裝就可以使用。

使用其他的spark集群在yarn模式下。

配置:

vi zeppelin-env.sh

添加:

export SPARK_HOME=/usr/crh/current/spark-clientexport SPARK_SUBMIT_OPTIONS="--driver-memory 512M --executor-memory 1G"export HADOOP_CONF_DIR=/etc/hadoop/conf

 

Zeppelin InterPReter配置

 

注意:設置完重啟解釋器。

Properties的master屬性如下:

新建Notebook

Tips:幾個月前zeppelin還是0.5.6,現在最新0.6.2,zeppelin 0.5.6寫notebook時前面必須加%spark,而0.6.2若什么也不加就默認是scala語言。

zeppelin 0.5.6不加就報如下錯:

Connect to 'databank:4300' failed
%spark.sqlselect count(*) from tc.gjl_test0

報錯:

復制代碼

com.fasterxml.jackson.databind.JsonMappingException: Could not find creator property with name 'id' (in class org.apache.spark.rdd.RDDOperationScope) at [Source: {"id":"2","name":"ConvertToSafe"}; line: 1, column: 1]	at com.fasterxml.jackson.databind.JsonMappingException.from(JsonMappingException.java:148)	at com.fasterxml.jackson.databind.DeserializationContext.mappingException(DeserializationContext.java:843)	at com.fasterxml.jackson.databind.deser.BeanDeserializerFactory.addBeanProps(BeanDeserializerFactory.java:533)	at com.fasterxml.jackson.databind.deser.BeanDeserializerFactory.buildBeanDeserializer(BeanDeserializerFactory.java:220)	at com.fasterxml.jackson.databind.deser.BeanDeserializerFactory.createBeanDeserializer(BeanDeserializerFactory.java:143)	at com.fasterxml.jackson.databind.deser.DeserializerCache._createDeserializer2(DeserializerCache.java:409)	at com.fasterxml.jackson.databind.deser.DeserializerCache._createDeserializer(DeserializerCache.java:358)	at com.fasterxml.jackson.databind.deser.DeserializerCache._createAndCache2(DeserializerCache.java:265)	at com.fasterxml.jackson.databind.deser.DeserializerCache._createAndCacheValueDeserializer(DeserializerCache.java:245)	at com.fasterxml.jackson.databind.deser.DeserializerCache.findValueDeserializer(DeserializerCache.java:143)	at com.fasterxml.jackson.databind.DeserializationContext.findRootValueDeserializer(DeserializationContext.java:439)	at com.fasterxml.jackson.databind.ObjectMapper._findRootDeserializer(ObjectMapper.java:3666)	at com.fasterxml.jackson.databind.ObjectMapper._readMapAndClose(ObjectMapper.java:3558)	at com.fasterxml.jackson.databind.ObjectMapper.readValue(ObjectMapper.java:2578)	at org.apache.spark.rdd.RDDOperationScope$.fromJson(RDDOperationScope.scala:85)	at org.apache.spark.rdd.RDDOperationScope$$anonfun$5.apply(RDDOperationScope.scala:136)	at org.apache.spark.rdd.RDDOperationScope$$anonfun$5.apply(RDDOperationScope.scala:136)	at scala.Option.map(Option.scala:145)	at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:136)	at org.apache.spark.sql.execution.SparkPlan.execute(SparkPlan.scala:130)	at org.apache.spark.sql.execution.ConvertToSafe.doExecute(rowFormatConverters.scala:56)	at org.apache.spark.sql.execution.SparkPlan$$anonfun$execute$5.apply(SparkPlan.scala:132)	at org.apache.spark.sql.execution.SparkPlan$$anonfun$execute$5.apply(SparkPlan.scala:130)	at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:150)	at org.apache.spark.sql.execution.SparkPlan.execute(SparkPlan.scala:130)	at org.apache.spark.sql.execution.SparkPlan.executeTake(SparkPlan.scala:187)	at org.apache.spark.sql.execution.Limit.executeCollect(basicOperators.scala:165)	at org.apache.spark.sql.execution.SparkPlan.executeCollectPublic(SparkPlan.scala:174)	at org.apache.spark.sql.DataFrame$$anonfun$org$apache$spark$sql$DataFrame$$execute$1$1.apply(DataFrame.scala:1499)	at org.apache.spark.sql.DataFrame$$anonfun$org$apache$spark$sql$DataFrame$$execute$1$1.apply(DataFrame.scala:1499)	at org.apache.spark.sql.execution.SQLExecution$.withNewExecutionId(SQLExecution.scala:56)	at org.apache.spark.sql.DataFrame.withNewExecutionId(DataFrame.scala:2086)	at org.apache.spark.sql.DataFrame.org$apache$spark$sql$DataFrame$$execute$1(DataFrame.scala:1498)	at org.apache.spark.sql.DataFrame.org$apache$spark$sql$DataFrame$$collect(DataFrame.scala:1505)	at org.apache.spark.sql.DataFrame$$anonfun$head$1.apply(DataFrame.scala:1375)	at org.apache.spark.sql.DataFrame$$anonfun$head$1.apply(DataFrame.scala:1374)	at org.apache.spark.sql.DataFrame.withCallback(DataFrame.scala:2099)	at org.apache.spark.sql.DataFrame.head(DataFrame.scala:1374)	at org.apache.spark.sql.DataFrame.take(DataFrame.scala:1456)	at sun.reflect.NativeMethodaccessorImpl.invoke0(Native Method)	at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)	at java.lang.reflect.Method.invoke(Method.java:606)	at org.apache.zeppelin.spark.ZeppelinContext.showDF(ZeppelinContext.java:297)	at org.apache.zeppelin.spark.SparkSqlInterpreter.interpret(SparkSqlInterpreter.java:144)	at org.apache.zeppelin.interpreter.ClassloaderInterpreter.interpret(ClassloaderInterpreter.java:57)	at org.apache.zeppelin.interpreter.LazyOpenInterpreter.interpret(LazyOpenInterpreter.java:93)	at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:300)	at org.apache.zeppelin.scheduler.Job.run(Job.java:169)	at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:134)	at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:471)	at java.util.concurrent.FutureTask.run(FutureTask.java:262)	at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:178)	at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:292)	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)	at java.lang.Thread.run(Thread.java:745)

復制代碼

原因:

進入/opt/zeppelin-0.5.6-incubating-bin-all目錄下:

# ls lib |grep jacksonjackson-annotations-2.5.0.jarjackson-core-2.5.3.jarjackson-databind-2.5.3.jar

將里面的版本換成如下版本:

# ls lib |grep jacksonjackson-annotations-2.4.4.jarjackson-core-2.4.4.jarjackson-databind-2.4.4.jar

測試成功!

參考網站

 

Sparksql也可直接通過hive jdbc連接,只需換端口,如下圖:

 

zeppelin主要有以下功能

數據提取

數據發現

數據分析

數據可視化

這里寫圖片描述

目前版本(0.5-0.6)之前支持的數據搜索引擎有如下

數據搜索引擎

安裝

環境 centOS 6.6

編譯準備工作

sudo yum updatesudo yum install openjdk-7-jdksudo yum install gitsudo yum install npm

下載源碼

git clone https://github.com/apache/incubator-zeppelin.git

編譯,打包

cd incubator-zeppelin#build for spark 1.4.x ,hadoop 2.4.xmvn clean package -Pspark-1.4 -Dhadoop.version=2.4.0 -Phadoop-2.4 -DskipTests -P build-distr

zeppelin編譯

結果會生成在zeppelin-distribution/target

解壓

tar -zxvf zeppelin-0.6.0-incubating-SNAPSHOT.tar.gz

修改配置,在zeppelin-site.xml中可以修改端口號等信息,zeppelin-env.sh中修改一些啟動環境變量。

cp zeppelin-site.xml.template zeppelin-site.xmlcp zeppelin-env.sh.template zeppelin-env.sh

啟動zeppelin

./bin/zeppelin-daemon.sh start

關閉zeppelin(記得要用命令關閉,不然你很可能再也起不來,別問我怎么知道的。)

./bin/zeppelin-daemon.sh stop

web ui

這里寫圖片描述

安裝環節至此結束,后續使用篇主要是hive與spark-sql的可視化使用,有時間將慢慢添加。

1.首先我們要下載zeppelin的壓縮包,當我們解壓之后(這一臺主機上面已經安裝過了java的環境)

  2.修改配置環境

   進入conf/

   將zeppelin-env.sh.template修改為zeppelin-env.sh

   將zeppelin-site.xml.template修改為zeppelin-site.xml

  

   然后我們接下來修改conf/zeppelin-env.sh新增

      export SPARK_MASTER_IP=192.168.109.136

      export SPARK_LOCAL_IP=192.168.109.136

  3.啟動zeppelin

    進入zeppelin:進入bin目錄下執行./zeppelin-daemon.sh start

    然后瀏覽器訪問192.168.109.136:8080進入界面

  

      此時就啟動成功

  4.zeppelin簡單實用

    1.text

    

    2.html

    

    3.table

    

    

    5.可以對數據進行分析

    對于我做的最多的分析,就是基于學校的那個資料,我有學校里面的信息,這個里面的每一行的信息是以","

    進行分隔,這個其中里面的民族,此時我們對這個民族進行分析

    

    由于我們這個zeppelin是在linux里面的啟動,所以我們必須把原有的數據放到linux的里面,此時zeppelin讀的文件目錄是linux里面的目錄

    

    

    則此時我們就可以對數據庫里面的東西進行視圖分析,我們通過這個數據,我們發現通過讀取數據

    ,以分組的方式,然后在查詢數據有多少個,這樣就可以對數據進行顯示

    a.

復制代碼

val text = sc.textFile("/tmp/xjdx.txt")case class Person(college:String,time:Integer)val rdd1 = text.map(line =>{    val fields = line.split(",")    if(fields.length >=10){      val mz = fields(10)      Person(mz,1)    }else{        Person("1",1)    }})

復制代碼

    b.

rdd1.toDF().registerTempTable("rdd1")

    c.

%sql select college,count(1) from rdd1 group by college

?


發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
91精品国产高清| 日韩性xxxx爱| 45www国产精品网站| 精品国产区一区二区三区在线观看| 成人精品福利视频| 亚洲精品欧美一区二区三区| 国产精品香蕉av| 国语自产偷拍精品视频偷| 97在线视频免费| 在线成人一区二区| 精品免费在线观看| 国产精品久久久久久久久免费看| 国产综合久久久久久| 亚洲欧洲日韩国产| 国产精品小说在线| 91综合免费在线| 国产精品wwwwww| 亚洲精品国产拍免费91在线| 91久久中文字幕| 超碰91人人草人人干| 亚洲第一天堂av| 亚洲精品美女网站| 国产精品亚洲第一区| 亚洲夜晚福利在线观看| 国产精品毛片a∨一区二区三区|国| 国产精品日韩欧美| 欧美激情视频给我| 国产不卡在线观看| 欧美超级乱淫片喷水| 亚洲aa在线观看| 色综合久久精品亚洲国产| 久久久久国产精品www| 一区二区三区四区在线观看视频| 91性高湖久久久久久久久_久久99| 狠狠做深爱婷婷久久综合一区| 92看片淫黄大片看国产片| 亚洲性生活视频| 福利视频一区二区| 日韩在线视频免费观看| 欧美激情成人在线视频| 久久久久久国产精品| 另类天堂视频在线观看| 国产视频精品一区二区三区| 亚洲人精品午夜在线观看| 国产亚洲欧洲高清| 粉嫩av一区二区三区免费野| 激情av一区二区| 欧美成人免费小视频| 国产黑人绿帽在线第一区| 97激碰免费视频| 亚洲欧洲在线播放| 欧美肥臀大乳一区二区免费视频| 亚洲香蕉伊综合在人在线视看| 日韩精品视频观看| 欧美性xxxx极品hd欧美风情| 欧美高清视频一区二区| 久久的精品视频| 国产精品夜色7777狼人| 日韩美女视频免费看| 亚洲乱码国产乱码精品精天堂| 亚洲乱码国产乱码精品精天堂| 成人午夜两性视频| 亚洲天天在线日亚洲洲精| 色哟哟网站入口亚洲精品| 国产成人福利夜色影视| 欧美性生交大片免费| 亚洲片在线观看| 日韩在线观看你懂的| 91久久精品国产91久久性色| 92版电视剧仙鹤神针在线观看| 亚洲成人国产精品| 欧美午夜精品久久久久久人妖| 欧美日韩第一视频| 亚洲人成电影网站色www| 国产v综合ⅴ日韩v欧美大片| 亚洲第一精品久久忘忧草社区| 亚洲一区二区免费| 色综合亚洲精品激情狠狠| 在线观看日韩www视频免费| 欧美电影免费观看高清完整| 91久久精品国产91久久性色| 亚洲免费视频一区二区| 亚洲激情自拍图| 亚洲综合社区网| 欧美精品精品精品精品免费| 色伦专区97中文字幕| 国产成人精品视频在线观看| 日韩成人在线播放| 中文字幕日韩精品在线| 97婷婷涩涩精品一区| 国产精品丝袜视频| 亚洲电影第1页| 国产91精品久久久久久| 青青青国产精品一区二区| 日韩高清不卡av| 中文字幕综合在线| 国产区亚洲区欧美区| 操日韩av在线电影| 国产精品久久久久久久久久99| 成人黄色av免费在线观看| 91嫩草在线视频| 久久精视频免费在线久久完整在线看| 欧美一级片一区| 日本中文字幕久久看| 成人综合网网址| 国色天香2019中文字幕在线观看| 欧美另类精品xxxx孕妇| 自拍视频国产精品| 日韩最新中文字幕电影免费看| 最近2019年好看中文字幕视频| 欲色天天网综合久久| 成人欧美一区二区三区在线| www国产精品视频| 亚洲高清一二三区| 日韩暖暖在线视频| 国产精品久久久久久久7电影| 在线观看精品国产视频| 亚洲自拍小视频| 精品久久久一区| 久久久精品999| 国产91ⅴ在线精品免费观看| 亚洲午夜av电影| 久久精品亚洲94久久精品| 久久在线免费视频| 国产综合香蕉五月婷在线| 欧美日韩一区二区三区在线免费观看| 亚洲精品免费av| 亚洲美女又黄又爽在线观看| 欧美放荡办公室videos4k| 亚洲精品美女视频| 92福利视频午夜1000合集在线观看| 国语自产精品视频在线看抢先版图片| 久久久国产精品一区| xxxx欧美18另类的高清| 青青久久aⅴ北条麻妃| 亚洲人午夜精品| 国产精品极品尤物在线观看| 永久免费精品影视网站| 欧美激情亚洲自拍| 国产精品网红福利| 911国产网站尤物在线观看| 亚洲sss综合天堂久久| 91在线|亚洲| 美日韩精品免费视频| 日韩av大片免费看| 91亚洲国产精品| 亚洲精选一区二区| 欧美视频在线视频| 日本免费一区二区三区视频观看| 高清一区二区三区日本久| 欧美成人在线免费视频| 成人性生交大片免费观看嘿嘿视频| 欧美日韩国产在线| 欧美亚洲成人xxx| 国产精品91久久久久久| 亚洲国产精品99久久| 亚洲毛片在线观看| 亚洲国产日韩欧美在线动漫| 欧美日韩国产激情| 国产精品永久免费视频| 日韩精品在线观看一区二区| 国产精品v日韩精品| 欧美激情亚洲国产| 亚洲精品狠狠操|