亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 服務器 > Web服務器 > 正文

Hadoop streaming詳細介紹

2024-09-01 13:51:05
字體:
來源:轉載
供稿:網友

Hadoop streaming

Hadoop為MapReduce提供了不同的API,可以方便我們使用不同的編程語言來使用MapReduce框架,而不是只局限于Java。這里要介紹的就是Hadoop streaming API。Hadoop streaming 使用Unix的standard streams作為我們mapreduce程序和MapReduce框架之間的接口。所以你可以用任何語言來編寫MapReduce程序,只要該語言可以往standard input/output上進行讀寫。

streamming是天然適用于文字處理的(text processing),當然,也僅適用純文本的處理,對于需要對象和序列化的場景,hadoop streaming無能為力。它力圖使我們能夠快捷的通過各種腳本語言,快速的處理大量的文本文件。以下是steaming的一些特點:

  1. Map函數的輸入是通過stand input一行一行的接收數據的。(不像Java API,通過InputFormat類做預處理,使得Map函數的輸入是有Key和value的)
  2. Map函數的output則必須限定為key-value pair,key和value之間用/t分開。(MapReduce框架在處理intermediate的Map輸出時,必須做sort和partition,即shuffle)
  3. Reduce函數的input是Map函數的output也是key-value pair,key和value之間用/t分開。

常用的Streaming編程語言:

  1. bash shell
  2. ruby
  3. python

Ruby

下面是一個Ruby編寫的MapReduce程序的示例:

map

max_temperature_map.rb:

ruby #!/usr/bin/env ruby STDIN.each_line do |line| val = line year, temp, q = val[15,4], val[87,5], val[92,1] puts "#{year}/t#{temp}" if (temp != "+9999" && q =~ /[01459]/) end 
  • 從標準輸入讀入一行data。
  • 處理數據之后,生成一個鍵值對,用/t分隔,輸出到標準輸出

reduce

max_temperature_reduce.rb:

ruby #!/usr/bin/env ruby last_key, max_val = nil, -1000000 STDIN.each_line do |line| key, val = line.split("/t") if last_key && last_key != key puts "#{last_key}/t#{max_val}" last_key, max_val = key, val.to_i else last_key, max_val = key, [max_val, val.to_i].max end end puts "#{last_key}/t#{max_val}" if last_key 
  1. 從標準輸入讀入一行數據
  2. 數據是用/t分隔的鍵值對
  3. 數據是被MapReduce根據key排序之后順序一行一行讀入
  4. reduce函數對數據進行處理,并輸出,輸出仍是用/t分隔的鍵值對

運行

% hadoop jar $HADOOP_INSTALL/contrib/streaming/hadoop-*-streaming.jar /-input input/ncdc/sample.txt /-output output /-mapper ch02/src/main/ruby/max_temperature_map.rb /-reducer ch02/src/main/ruby/max_temperature_reduce.rb
  1. hadoop jar $HADOOP_INSTALL/contrib/streaming/hadoop-*-streaming.jar指明了使用hadoop streaming
  2. hadoop-*-streaming.jar會將input里的文件,一行一行的輸出到標準輸出。
  3. 用-mapper指定Map函數。類似于通過管道將數據傳給rb文件: data|ch02/src/main/ruby/max_temperature_map.rb
  4. -reducer指定Reduce函數。

Python

Map

#!/usr/bin/env pythonimport reimport sysfor line in sys.stdin:val = line.strip()(year, temp, q) = (val[15:19], val[87:92], val[92:93])if (temp != "+9999" and re.match("[01459]", q)):print "%s/t%s" % (year, temp)

Reduce

#!/usr/bin/env pythonimport sys(last_key, max_val) = (None, -sys.maxint)for line in sys.stdin:(key, val) = line.strip().split("/t")if last_key and last_key != key:print "%s/t%s" % (last_key, max_val)(last_key, max_val) = (key, int(val))else:(last_key, max_val) = (key, max(max_val, int(val)))if last_key:print "%s/t%s" % (last_key, max_val)

運行

% hadoop jar $HADOOP_INSTALL/contrib/streaming/hadoop-*-streaming.jar /-input input/ncdc/sample.txt /-output output /-mapper ch02/src/main/ruby/max_temperature_map.py/-reducer ch02/src/main/ruby/max_temperature_reduce.py

Bash shell

Map

#!/usr/bin/env bash# NLineInputFormat gives a single line: key is offset, value is S3 URIread offset s3file# Retrieve file from S3 to local diskecho "reporter:status:Retrieving $s3file" >&2$HADOOP_INSTALL/bin/hadoop fs -get $s3file .# Un-bzip and un-tar the local filetarget=`basename $s3file .tar.bz2`mkdir -p $targetecho "reporter:status:Un-tarring $s3file to $target" >&2tar jxf `basename $s3file` -C $target# Un-gzip each station file and concat into one fileecho "reporter:status:Un-gzipping $target" >&2for file in $target/*/*dogunzip -c $file >> $target.allecho "reporter:status:Processed $file" >&2done# Put gzipped version into HDFSecho "reporter:status:Gzipping $target and putting in HDFS" >&2gzip -c $target.all | $HADOOP_INSTALL/bin/hadoop fs -put - gz/$target.gz

運行

% hadoop jar $HADOOP_INSTALL/contrib/streaming/hadoop-*-streaming.jar /-D mapred.reduce.tasks=0 /-D mapred.map.tasks.speculative.execution=false /-D mapred.task.timeout=12000000 /-input ncdc_files.txt /-inputformat org.apache.hadoop.mapred.lib.NLineInputFormat /-output output /-mapper load_ncdc_map.sh /-file load_ncdc_map.sh
  1. 這里的-D mapred.reduce.tasks=0將reduce task觀掉,因此也不需要設置-reducer
  2. 只使用Mapper,可以通過MapReduce幫助我們并行的完成一些平時只能串行的shell腳本
  3. 注意這里的-file,在集群模式下,需要并行運行時,需要-file把文件傳輸到其他節點

Combiner

在streaming模式下,仍然可以運行Combiner,兩種方法:

  1. 通過Java編寫一個combiner的函數,并使用-combiner option
  2. 以命令行的管道模式完成combiner的任務

這里具體解釋第二種方法:

% hadoop jar $HADOOP_INSTALL/contrib/streaming/hadoop-*-streaming.jar /-input input/ncdc/all /-output output /-mapper "ch02/src/main/ruby/max_temperature_map.rb | sort |ch02/src/main/ruby/max_temperature_reduce.rb" /-reducer ch02/src/main/ruby/max_temperature_reduce.rb /-file ch02/src/main/ruby/max_temperature_map.rb /-file ch02/src/main/ruby/max_temperature_reduce.rb

注意看-mapper這一行,通關管道的方式,把mapper的臨時輸出文件(intermediate file,Map完成后的臨時文件)作為輸入,送到sort進行排序,然后送到reduce腳本,來完成類似于combiner的工作。這時候的輸出才真正的作為shuffle的輸入,被分組并在網絡上發送到Reduce

感謝閱讀,希望能幫助到大家,謝謝大家對本站的支持!


發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
国产成人亚洲综合91精品| 国产精品男人的天堂| 欧美成人午夜剧场免费观看| 亚洲人成网站色ww在线| 亚洲淫片在线视频| 久久久久这里只有精品| 国产欧美最新羞羞视频在线观看| 欧美乱大交xxxxx另类电影| 日本午夜人人精品| 亚洲区在线播放| 久久久免费高清电视剧观看| 91精品国产综合久久香蕉最新版| 久久久视频在线| 色老头一区二区三区在线观看| 久久99国产综合精品女同| 午夜精品久久久久久久久久久久久| 色哟哟亚洲精品一区二区| 精品久久久国产| 亚洲人成网站色ww在线| 国产精品免费看久久久香蕉| 亚洲女人初尝黑人巨大| 国产精品h片在线播放| 欧美电影免费观看大全| 国产在线播放91| 日韩高清不卡av| 欧美午夜视频一区二区| 久久亚洲精品国产亚洲老地址| 深夜福利亚洲导航| 国产精品夜间视频香蕉| 国产精品大片wwwwww| 欧美成人三级视频网站| 久久久亚洲天堂| 日韩在线高清视频| 日韩免费视频在线观看| 国产一区二区av| 91精品视频大全| 亚洲精品中文字| 91网站在线免费观看| 欧美与欧洲交xxxx免费观看| 亚洲性视频网址| 成人激情在线观看| 亚洲精品久久久久中文字幕欢迎你| 亚洲图片欧美日产| 欧美日韩精品在线视频| 欧美精品在线免费播放| 日韩在线视频观看正片免费网站| 色综合久久久888| 午夜精品久久久久久久99黑人| 亚洲国产另类久久精品| 国产精品日日摸夜夜添夜夜av| 宅男66日本亚洲欧美视频| 国产三级精品网站| 欧美成人精品在线视频| 国产精品亚洲视频在线观看| 国产精品视频专区| 日韩国产高清视频在线| 欧美日韩免费一区| 欧美大成色www永久网站婷| 成人免费大片黄在线播放| 日韩av中文字幕在线播放| 欧美极品少妇xxxxⅹ喷水| 亚洲精品美女久久| 中文字幕精品网| 久久久久久91香蕉国产| 性欧美视频videos6一9| 国产欧美在线播放| 国产精品日日摸夜夜添夜夜av| 亚洲欧美在线第一页| 欧美肥老妇视频| 成人黄在线观看| 国产精品视频自在线| 亚洲欧美三级在线| 色偷偷av亚洲男人的天堂| 亚洲精品国产精品久久清纯直播| 欧美大片在线免费观看| 精品视频在线播放免| 国产欧美日韩免费看aⅴ视频| 91久久久久久国产精品| 在线国产精品播放| 欧美一级黑人aaaaaaa做受| 国产日韩欧美在线观看| 国产成人a亚洲精品| 亚洲欧美国产日韩天堂区| 欧美麻豆久久久久久中文| 欧美裸体男粗大视频在线观看| 成人福利视频在线观看| 中文字幕亚洲专区| 欧美日韩国产丝袜美女| 精品国产一区二区在线| 色综合视频网站| 欧美日产国产成人免费图片| 亚洲精品国产欧美| 在线观看日韩视频| 亚洲美女精品久久| 欧美日韩免费一区| 日韩欧美福利视频| 伊人男人综合视频网| 久久久久久久久久国产精品| 亚洲成avwww人| 色妞色视频一区二区三区四区| 日韩精品在线电影| 欧美激情一区二区三区在线视频观看| 亚洲精品av在线| 中文字幕欧美视频在线| 欧美日韩国产成人在线观看| 亚洲精品成人久久久| 黄色一区二区在线观看| 中国china体内裑精亚洲片| 亚洲日本aⅴ片在线观看香蕉| 欧美激情一区二区三区在线视频观看| 精品呦交小u女在线| 欧美极品欧美精品欧美视频| 91日本在线观看| 欧美制服第一页| 久久这里只有精品视频首页| 日韩中文字幕亚洲| 日韩精品视频观看| 国语自产精品视频在线看一大j8| 亚洲成人黄色在线| 一本色道久久88精品综合| 国模gogo一区二区大胆私拍| 亚洲人成在线免费观看| 欧美日韩亚洲成人| 亚洲毛片在线免费观看| 色爱精品视频一区| 91最新在线免费观看| 在线观看视频亚洲| 国产激情999| 欧美性猛交xxxx富婆弯腰| 成人网中文字幕| 国产精品视频999| 日韩一区二区三区在线播放| 亚洲一区二区三区乱码aⅴ蜜桃女| 青青草一区二区| 久久精品最新地址| 亚洲最大福利网站| 国产精品一区二区性色av| 国产成人一区三区| 亚洲新声在线观看| 国产一区二区三区视频| 欧美激情videoshd| 欧美成人午夜视频| 久久久亚洲精品视频| 136fldh精品导航福利| 亚洲一区二区三区乱码aⅴ| 日韩免费视频在线观看| 亚洲性视频网站| 日日噜噜噜夜夜爽亚洲精品| 97在线精品视频| 亚洲大胆美女视频| 欧美视频13p| 亚洲综合在线中文字幕| 91在线观看免费高清| 中文字幕亚洲二区| 久久影视电视剧免费网站清宫辞电视| 国产成人久久精品| 日韩在线免费av| 久久久久久免费精品| 日韩av在线一区二区| 国产精品久久电影观看| 成人国产在线激情| 国产精品视频最多的网站| 亚洲自拍另类欧美丝袜| 亚洲天堂视频在线观看|