欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

HadoopMultipleOutputs如何輸出到多個文件中-創(chuàng)新互聯(lián)

這篇文章主要介紹Hadoop MultipleOutputs如何輸出到多個文件中,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

目前創(chuàng)新互聯(lián)建站已為成百上千的企業(yè)提供了網(wǎng)站建設(shè)、域名、網(wǎng)絡(luò)空間、網(wǎng)站托管維護、企業(yè)網(wǎng)站設(shè)計、長洲網(wǎng)站維護等服務(wù),公司將堅持客戶導(dǎo)向、應(yīng)用為本的策略,正道將秉承"和諧、參與、激情"的文化,與客戶和合作伙伴齊心協(xié)力一起成長,共同發(fā)展。

 Hadoop MultipleOutputs輸出到多個文件中的實現(xiàn)方法

1.輸出到多個文件或多個文件夾:

驅(qū)動中不需要額外改變,只需要在MapClass或Reduce類中加入如下代碼

private MultipleOutputs<Text,IntWritable> mos;
public void setup(Context context) throws IOException,InterruptedException {
  mos = new MultipleOutputs(context);
}
public void cleanup(Context context) throws IOException,InterruptedException {
  mos.close();
}

  然后就可以用mos.write(Key key,Value value,String baseOutputPath)代替context.write(key, value);

  在MapClass或Reduce中使用,輸出時也會有默認的文件part-m-00*或part-r-00*,不過這些文件是無內(nèi)容的,大小為0. 而且只有part-m-00*會傳給Reduce。

注意:multipleOutputs.write(key, value, baseOutputPath)方法的第三個函數(shù)表明了該輸出所在的目錄(相對于用戶指定的輸出目錄)。

如果baseOutputPath不包含文件分隔符“/”,那么輸出的文件格式為baseOutputPath-r-nnnnn(name-r-nnnnn);
如果包含文件分隔符“/”,例如baseOutputPath=“029070-99999/1901/part”,那么輸出文件則為029070-99999/1901/part-r-nnnnn

2.案例-需求

需求,下面是有些測試數(shù)據(jù),要對這些數(shù)據(jù)按類目輸出到output中:

1512,iphone5s,4英寸,指紋識別,A7處理器,64位,M7協(xié)處理器,低功耗

1512,iphone5,4英寸,A6處理器,IOS7

1512,iphone4s,3.5英寸,A5處理器,雙核,經(jīng)典

50019780,ipad,9.7英寸,retina屏幕,豐富的應(yīng)用

50019780,yoga,聯(lián)想,待機18小時,外形獨特

50019780,nexus 7,華碩&google,7英寸

50019780,ipad mini 2,retina顯示屏,蘋果,7.9英寸

1101,macbook air,蘋果超薄,OS X mavericks

1101,macbook pro,蘋果,OS X lion

1101,thinkpad yoga,聯(lián)想,windows 8,超級本

3.Mapper程序:

package cn.edu.bjut.multioutput;

import java.io.IOException;

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

public class MultiOutPutMapper extends Mapper<LongWritable, Text, IntWritable, Text> {

  @Override
  protected void map(LongWritable key, Text value, Context context)
      throws IOException, InterruptedException {
    String line = value.toString().trim();
    if(null != line && 0 != line.length()) {
      String[] arr = line.split(",");
      context.write(new IntWritable(Integer.parseInt(arr[0])), value);
    }
  }

}

4.Reducer程序:

package cn.edu.bjut.multioutput;

import java.io.IOException;

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.output.MultipleOutputs;

public class MultiOutPutReducer extends
    Reducer<IntWritable, Text, NullWritable, Text> {

  private MultipleOutputs<NullWritable, Text> multipleOutputs = null;

  @Override
  protected void reduce(IntWritable key, Iterable<Text> values, Context context)
      throws IOException, InterruptedException {
    for(Text text : values) {
      multipleOutputs.write("KeySpilt", NullWritable.get(), text, key.toString()+"/");
      multipleOutputs.write("AllPart", NullWritable.get(), text);
    }
  }

  @Override
  protected void setup(Context context)
      throws IOException, InterruptedException {
    multipleOutputs = new MultipleOutputs<NullWritable, Text>(context);
  }

  @Override
  protected void cleanup(Context context)
      throws IOException, InterruptedException {
    if(null != multipleOutputs) {
      multipleOutputs.close();
      multipleOutputs = null;
    }
  }


}

5.主程序:

package cn.edu.bjut.multioutput;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.lib.output.MultipleOutputs;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;

public class MainJob {
  public static void main(String[] args) throws Exception {
    Configuration conf = new Configuration();
    Job job = new Job(conf, "aaa");
    job.setJarByClass(MainJob.class);

    job.setMapperClass(MultiOutPutMapper.class);
    job.setMapOutputKeyClass(IntWritable.class);
    job.setMapOutputValueClass(Text.class);

    job.setReducerClass(MultiOutPutReducer.class);
    job.setOutputKeyClass(NullWritable.class);
    job.setOutputValueClass(Text.class);

    FileInputFormat.addInputPath(job, new Path(args[0]));

    MultipleOutputs.addNamedOutput(job, "KeySpilt", TextOutputFormat.class, NullWritable.class, Text.class);
    MultipleOutputs.addNamedOutput(job, "AllPart", TextOutputFormat.class, NullWritable.class, Text.class);

    Path outPath = new Path(args[1]);
    FileSystem fs = FileSystem.get(conf);
    if(fs.exists(outPath)) {
      fs.delete(outPath, true);
    }
    FileOutputFormat.setOutputPath(job, outPath);

    job.waitForCompletion(true);
  }
}

以上是“Hadoop MultipleOutputs如何輸出到多個文件中”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!

網(wǎng)站標題:HadoopMultipleOutputs如何輸出到多個文件中-創(chuàng)新互聯(lián)
文章鏈接:http://aaarwkj.com/article4/dddsie.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供微信小程序、域名注冊建站公司、小程序開發(fā)網(wǎng)站營銷、關(guān)鍵詞優(yōu)化

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

成都做網(wǎng)站
黑人巨大欧美一区二区| 亚洲一区二区三区黄色| 国产在线视频不卡一区| 欧美久久精品在线观看| 久久精品国产av一一区| 亚州中文字幕久久一区| 国产国产成人精品久久蜜| 国产一区二区三区在线看片| 国产夫妻自拍在线视频| 免费无码不卡av一区二区| 麻豆映画传媒在线播放| 日韩精品人妻一区二区三区免费| 性生活的视频免费观看麻豆| 日韩一区二区高清看片| 成年黄网站免费视频大全| 日本成年网站在线观看| 青青草原精品视频在线| 亚洲黄片在线免费播放观看| 亚洲av色香蕉一区二区| 美女av在线免费观看| 久久精品国产久精国产爱| 国产精品一区二区精品| 亚洲福利视频在线观看免费| 亚洲精品一级二级三级| 国产精品传媒在线视频| 国产欧美日本一区二区| 欧美日韩在线一区二区| 久久国产精品午夜视频| 久久热在线观看免费高清| 亚洲天堂日韩欧美在线一区| 日本中文字幕在线播放一区| 一区二区三区高清人妻| 日韩精品一区二区91| 午夜性色在线视频福利| 激情偷拍一区二区三区视频| 久久久国产精品免费看| 国产成人精品亚洲av无人区| heyzo高清中文字幕在线| 免费在线观看av大全| 久久久精品国产亚洲av色哟哟| 日本91一区二区不卡|