亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 網站 > Apache > 正文

分布式系統hadoop配置文件加載順序詳細教程

2024-08-27 18:22:35
字體:
來源:轉載
供稿:網友

Hadoop 是最受歡迎的在 Internet 上對搜索關鍵字進行內容分類的工具,但它也可以解決許多要求極大伸縮性的問題。用了一段時間的hadoop,現在回來看看源碼發現別有一番味道,溫故而知新,還真是這樣的。

在使用hadoop之前我們需要配置一些文件,hadoop-env.sh,core-site.xml,hdfs-site.xml,mapred-site.xml。那么這些文件在什么時候被hadoop使用?

一般的在啟動hadoop的時候使用最多就是start-all.sh,那么這個腳本都干了些什么?代碼如下:

  1. # Start all hadoop daemons. Run this on master node. 
  2. #特別的地方時要在master節點上啟動hadoop所有進程 
  3.  
  4. bin=`dirname "$0"
  5. bin=`cd "$bin"; pwd` #bin=$HADOOP_HOME/bin 
  6.  
  7. if [ -e "$bin/../libexec/hadoop-config.sh" ]; then 
  8. "$bin"/../libexec/hadoop-config.sh 
  9. else 
  10. "$bin/hadoop-config.sh" 
  11. fi //開源軟件:Vevb.com 
  12.  
  13. # start dfs daemons 
  14. "$bin"/start-dfs.sh --config $HADOOP_CONF_DIR 
  15.  
  16. # start mapred daemons 
  17. "$bin"/start-mapred.sh --config $HADOOP_CONF_DIR 

加載hadoop-env.sh

腳本先找到hadoop中的bin目錄,在配置了hadoop環境變量的情況下該處可以使用$HADOOP_HOME/bin直接代替。接下來是執行hadoop-config.sh,這個文件可能會在$HADOOP_HOME/libexec目錄或者是$HADOOP_HOME/bin目錄下,在我使用的hadoop版本中是在$HADOOP_HOME/libexec目錄下,在hadoop-config.sh文件中有下面這幾行腳本

hadoop-config.sh

代碼如下:

  1. if [ -f "${HADOOP_CONF_DIR}/hadoop-env.sh" ]; then 
  2. "${HADOOP_CONF_DIR}/hadoop-env.sh" 
  3. fi 

測試$HADOOP_HOME/conf/hadoop-env.sh為普通文件后,通過  . "${HADOOP_CONF_DIR}/hadoop-env.sh"執行hadoop-env.sh這個腳本,ok,我們在hadoop-env.sh中配置的環境變量 JAVA_HOME 生效了,其實我感覺這個地方完全可以不用配置,為什么?因為我們在linux上安裝hadoop肯定要安裝java,那么安裝時肯定都會配置JAVA_HOME,在/etc/profile中配置的環境變量在任何的shell進程中都生效.

加載core-*.xml,hdfs.*.xml文件

執行完hadoop-config.sh命令后,執行$HADOOP_HOME/start-dfs.sh,該腳本的作用是啟動namenode,datename,secondarynamenode這三個與hdfs有關的進程

start-dfs.sh

代碼如下:

  1. # Run this on master node. 
  2.  
  3. usage="Usage: start-dfs.sh [-upgrade|-rollback]" 
  4.  
  5. bin=`dirname "$0"
  6. bin=`cd "$bin"; pwd` 
  7.  
  8. if [ -e "$bin/../libexec/hadoop-config.sh" ]; then 
  9. "$bin"/../libexec/hadoop-config.sh 
  10. else 
  11. "$bin/hadoop-config.sh" 
  12. fi 
  13.  
  14. # get arguments 
  15. if [ $# -ge 1 ]; then 
  16. nameStartOpt=$1 
  17. shift 
  18. case $nameStartOpt in 
  19. (-upgrade) 
  20. ;; 
  21. (-rollback) 
  22. dataStartOpt=$nameStartOpt 
  23. ;; 
  24. (*) 
  25. echo $usage 
  26. exit 1 
  27. ;; 
  28. esac 
  29. fi 
  30.  
  31. # start dfs daemons 
  32. # start namenode after datanodes, to minimize time namenode is up w/o data //開源軟件:Vevb.com 
  33. # note: datanodes will log connection errors until namenode starts 
  34. "$bin"/hadoop-daemon.sh --config $HADOOP_CONF_DIR start namenode $nameStartOpt 
  35. "$bin"/hadoop-daemons.sh --config $HADOOP_CONF_DIR start datanode $dataStartOpt 
  36. "$bin"/hadoop-daemons.sh --config $HADOOP_CONF_DIR --hosts masters start secondarynamenode 

仔細看看不能發現,在start-dfs.sh中同樣也會執行hadoop-config.sh,之所以有這一步,是因為我們不總是使用start-all.sh來啟動hadoop的所有進程,有時候我們只需要使用hdfs而不需要MapReduce,此時只需要單獨執行start-dfs.sh,同樣hadoop-config.sh中定義的變量也會被文件系統相關進程使用,所以這里在啟動namenode,datanode,secondarynamenode之前需要先執行hadoop-config.sh,同時hadoop-env.sh文件被執行,再來看看最后的三行代碼,分別是啟動namenode,datanode,secondarynamenode的腳本,啟動hadoop后一共有5個進程,其中三個就是namenode,datanode,secondarynamenode,既然能啟動進程說明對應的類中一定有main方法,看看源碼就可以驗證這一點,這不是重點,重點是來看看對應的類是怎么加載配置文件的。無論是namenode,還是dataname,還是secondarynamenode,他們在啟動時都會加載core-*.xml和hdfs-*.xml文件,以org.apache.hadoop.hdfs.server.namenode.NameNode 這個類為例,其他的兩個類org.apache.hadoop.hdfs.server.datanode.DataNode,org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode類似。

org.apache.hadoop.hdfs.server.namenode.NameNode

代碼如下:

  1. public class NameNode implements ClientProtocol, DatanodeProtocol, 
  2. NamenodeProtocol, FSConstants, 
  3. RefreshAuthorizationPolicyProtocol, 
  4. RefreshUserMappingsProtocol { 
  5. static
  6. Configuration.addDefaultResource("hdfs-default.xml"); 
  7. Configuration.addDefaultResource("hdfs-site.xml"); 
  8. ... 

看看靜態代碼塊里面內容,會很興奮,看到了hdfs-default.xml和hdfs-site.xml。對重點就在這里,static code block在類加載到jvm執行類的初始化時會執行(不是對象初始化)。Configuration.addDefaultResource("hdfs-default.xml");這段代碼執行前會先將Configuration這個類加載jvm中,那么看下org.apache.hadoop.conf.Configuration這個類中的static code block干了些什么

org.apache.hadoop.conf.Configuration

代碼如下:

  1. static
  2. //print deprecation warning if hadoop-site.xml is found in classpath 
  3. ClassLoader cL = Thread.currentThread().getContextClassLoader(); 
  4. if (cL == null) { 
  5. cL = Configuration.class.getClassLoader(); 
  6. if(cL.getResource("hadoop-site.xml")!=null) { 
  7. LOG.warn("DEPRECATED: hadoop-site.xml found in the classpath. " + 
  8. "Usage of hadoop-site.xml is deprecated. Instead use core-site.xml, " 
  9. "mapred-site.xml and hdfs-site.xml to override properties of " + 
  10. "core-default.xml, mapred-default.xml and hdfs-default.xml " + 
  11. "respectively"); 
  12. addDefaultResource("core-default.xml"); 
  13. addDefaultResource("core-site.xml"); 

Configuration類在類的初始化時加載了core-default.xml和core-site.xml這兩個文件。這樣namenode在啟動的時候就加載了core-*.xml和hdfs-*.xml文件,其中core-*.xml是由Configuration這個類加載的。

加載core-*.xml和mapred-*.xml文件

執行完start-dfs.xml后,執行start-mapred.sh,該腳本和start-hdf.sh差不多,代碼如下:

  1. start-mapred.sh 
  2. # Start hadoop map reduce daemons. Run this on master node. 
  3.  
  4. bin=`dirname "$0"
  5. bin=`cd "$bin"; pwd` 
  6.  
  7. if [ -e "$bin/../libexec/hadoop-config.sh" ]; then 
  8. "$bin"/../libexec/hadoop-config.sh 
  9. else 
  10. "$bin/hadoop-config.sh" 
  11. fi 
  12.  
  13. # start mapred daemons 
  14. # start jobtracker first to minimize connection errors at startup 
  15. "$bin"/hadoop-daemon.sh --config $HADOOP_CONF_DIR start jobtracker 
  16. "$bin"/hadoop-daemons.sh --config $HADOOP_CONF_DIR start tasktracker 

該腳本同樣也會執行hadoop-config.sh,同樣也會執行hadoop-env.sh。這里和start-dfs.sh是統一的。最后兩行代碼是啟動jobtracker和tasktracker進程的。同樣對應著兩個類org.apache.hadoop.mapred.JobTracker和org.apache.hadoop.mapred.TaskTracker

以org.apache.hadoop.mapred.JobTracker為例,org.apache.hadoop.mapred.TaskTracker類似

org.apache.hadoop.mapred.JobTracker

代碼如下:

  1. public class JobTracker implements MRConstants, InterTrackerProtocol, 
  2. JobSubmissionProtocol, TaskTrackerManager, RefreshUserMappingsProtocol, 
  3. RefreshAuthorizationPolicyProtocol, AdminOperationsProtocol, 
  4. JobTrackerMXBean { 
  5.  
  6. static
  7. Configuration.addDefaultResource("mapred-default.xml"); 
  8. Configuration.addDefaultResource("mapred-site.xml"); 
  9. ... 

ok,有了上面的解釋,現在已經很明白了。JobTracker啟動時加載了core-*.xml和mapred-*.xml文件,其中core-*.xml是由Configuration完成的。

summarize:

使用start-all.sh啟動hadoop所有的進程時,各種配置文件得加載順序:

HDFS:hadoop-env.sh --> core-default.xml --> core-site.xml --> hdfs-default.xml --> hdfs-site.xml

Mapred:hadoop-env.sh --> core-default.xml --> core-site.xml --> mapred.default.xml --> mapred.site.xml

注意到一點,core-*.xml系統的文件總是優先加載,而且hadoop中5個進程都會加載,這也說明core-*.xml是公共的基礎庫,被大家伙共享.

配置文件時在進程啟動時加載的,這也可以證明如果修改了hadoop的配置文件,無論是系統配置文件還是管理員配置文件,都需要重新啟動進程生效.

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
国产成人精品一区| 国产精品国产福利国产秒拍| 日韩欧中文字幕| 国产精品久久久久久久久免费看| 国产亚洲精品日韩| 黑人巨大精品欧美一区二区三区| 国产亚洲精品91在线| 日韩中文字幕久久| 久久天天躁狠狠躁夜夜av| 日韩视频在线免费| 亚洲人成网站免费播放| 久久久国产一区| 日韩高清人体午夜| 精品日本美女福利在线观看| 国产精品视频最多的网站| 色哟哟入口国产精品| 日本高清不卡的在线| 久久99国产精品久久久久久久久| 日韩欧美中文字幕在线播放| 精品无人区乱码1区2区3区在线| 国产成人综合精品| 亚洲深夜福利网站| 亚洲天堂av网| 欧美性猛交xxxx偷拍洗澡| 成人精品一区二区三区电影黑人| 欧美贵妇videos办公室| 亚洲国产精品一区二区久| 国产婷婷97碰碰久久人人蜜臀| 国产一区私人高清影院| 欧美日韩免费看| 国产精品99导航| 欧美激情区在线播放| zzjj国产精品一区二区| 亚洲成年人在线播放| 夜夜狂射影院欧美极品| 在线视频国产日韩| 欧美精品一本久久男人的天堂| 欧美日韩国产一中文字不卡| 91超碰中文字幕久久精品| 怡红院精品视频| 日韩电视剧在线观看免费网站| 精品国产91久久久久久老师| 亚洲国产精品久久91精品| 美女999久久久精品视频| 欧美性精品220| 日韩美女av在线免费观看| 久久精品视频一| 日韩成人av一区| 最近2019年好看中文字幕视频| 亚洲美女av在线| 欧美精品videos性欧美| 欧美一乱一性一交一视频| 欧美区在线播放| 久久免费国产视频| 国产精品成人在线| 国产成人综合精品在线| 欧美激情视频在线免费观看 欧美视频免费一| 中文字幕亚洲欧美在线| 成人免费大片黄在线播放| 精品美女久久久久久免费| 日韩在线高清视频| 亚洲在线一区二区| 北条麻妃99精品青青久久| 亚洲qvod图片区电影| 亚洲第一区中文99精品| 欧美日韩亚洲网| 亚洲第一网站免费视频| 亚洲片国产一区一级在线观看| 国产一区二区三区日韩欧美| 欧美日韩午夜激情| 久久精品视频中文字幕| 中文字幕亚洲第一| 成人444kkkk在线观看| 中文字幕免费精品一区高清| 九九热精品在线| 久久99视频免费| 91精品国产综合久久久久久久久| 日韩人在线观看| 亚洲女性裸体视频| 精品亚洲一区二区三区在线播放| 国产玖玖精品视频| 国产精品久久久久久久久久东京| 欧美精品999| 日韩av片永久免费网站| 欧美午夜丰满在线18影院| 色噜噜狠狠色综合网图区| 欧美日韩国产区| 国产成人精品综合久久久| 草民午夜欧美限制a级福利片| 精品香蕉在线观看视频一| 久久国产精品影视| 久久夜色精品国产| 亚洲一区二区黄| 97在线看免费观看视频在线观看| 57pao国产成人免费| 琪琪亚洲精品午夜在线| 69久久夜色精品国产69乱青草| 狠狠色噜噜狠狠狠狠97| 2019中文字幕在线观看| 国产91精品青草社区| 国产日韩精品入口| 国产精品视频网站| 亚洲一区中文字幕在线观看| 欧美xxxx做受欧美| 91国产视频在线| 欧美最顶级的aⅴ艳星| 7777精品久久久久久| 亚洲在线视频福利| 亚洲第一色在线| 亚洲一区二区久久久| 中文字幕视频在线免费欧美日韩综合在线看| 亚洲福利精品在线| 亚洲3p在线观看| 亚洲欧美国产高清va在线播| 国产成人高潮免费观看精品| 欧美裸体视频网站| 成人网址在线观看| 国内精品伊人久久| 欧美大尺度激情区在线播放| 国产午夜精品一区二区三区| 欧美性猛交xxxx乱大交| 亚洲女同性videos| 久久免费视频在线| 这里只有精品丝袜| 国产亚洲欧美aaaa| 69国产精品成人在线播放| 欧美富婆性猛交| 国产一区视频在线播放| 欧美丝袜一区二区三区| xxxxx成人.com| 亚洲男人av电影| 国产在线视频不卡| 亚洲欧美日韩精品久久亚洲区| 欧美午夜激情视频| 亚洲女同精品视频| 亚洲片在线资源| xxx一区二区| 日韩久久午夜影院| 国产视频亚洲视频| 亚洲理论片在线观看| 成人黄色大片在线免费观看| 亚洲最新av在线| 毛片精品免费在线观看| 国产精品一区二区av影院萌芽| 亚洲成人网av| 国产在线不卡精品| 国产第一区电影| 中文字幕综合在线| 久久影视电视剧免费网站清宫辞电视| 丝袜美腿精品国产二区| 久久人体大胆视频| 91高清免费在线观看| 欧美精品做受xxx性少妇| 色狠狠av一区二区三区香蕉蜜桃| 欧美色图在线视频| 欧美午夜精品久久久久久人妖| 亚洲第一网站免费视频| 久久影院模特热| 69精品小视频| 亚洲国产精品va| 国产欧美日韩中文字幕在线| 国产精品美女av| 高清亚洲成在人网站天堂| 6080yy精品一区二区三区|