博客
关于我
运行一个Hadoop Job所需要指定的属性
阅读量:83 次
发布时间:2019-02-26

本文共 1930 字,大约阅读时间需要 6 分钟。

Java MapReduce Job配置指南

1. Job基础属性设置

创建一个新的Job实例,并配置其基础属性。可以通过以下步骤实现:

Job job = new Job();job.setJarByClass(YourClass.class);job.setJobName("your_job_name");job.setNumReduce(2); // 设置并行度

2. Map/Reduce类设置

配置Map和Reduce的类,提供默认的处理类或自定义类:

job.setMapperClass(YourMapperClass.class);job.setReducerClass(YourReducerClass.class);

3. 输入输出格式设置

指定Job的输入和输出格式,默认为TextInputFormat和FileOutputFormat:

job.setInputFormatClass(InputFormat.class);job.setOutputFormatClass(OutputFormat.class);

4. 输入输出路径设置

当使用文件输入或输出时,指定相应路径:

FileInputFormat.addInputPath(job, new Path("输入路径"));FileOutputFormat.setOutputPath(job, new Path("输出路径"));

5. 输出键值类型设置

配置Map和Reduce的输出键值类型,提供四个主要类别:

// Map输出job.setOutputKeyClass(YourKeyClass.class);job.setOutputValueClass(YourValueClass.class);// Reduce输出(默认与Map输出一致)

6. 运行程序

提交Job进行处理,并等待完成:

job.waitForCompletion();

示例代码

import org.apache.hadoop.fs.Path;import org.apache.hadoop.mapreduce.Job;import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;public class MaxTemperature {    public static void main(String[] args) throws Exception {        // 1. 设置Job基础属性        Job job = new Job();        job.setJarByClass(MaxTemperature.class);        job.setJobName("Max temperature");        job.setNumReduce(2);        // 2. 设置Map/Reduce类        job.setMapperClass(MaxTemperatureMapper.class);        job.setReducerClass(MaxTemperatureReducer.class);        // 3. 设置输入输出格式        job.setInputFormatClass(FileInputFormat.class);        job.setOutputFormatClass(FileOutputFormat.class);        // 4. 设置输入输出路径        FileInputFormat.addInputPath(job, new Path(args[0]));        FileOutputFormat.setOutputPath(job, new Path(args[1]));        // 5. 设置输出键值类型        job.setOutputKeyClass(Text.class);        job.setOutputValueClass(IntWritable.class);        // 6. 运行程序        System.exit(job.waitForCompletion(true) ? 1 : 0);    }}

注意:上述示例为伪代码,实际开发中需根据需要导入相应的类和包。

转载地址:http://gqnk.baihongyu.com/

你可能感兴趣的文章
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
查看>>
Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
查看>>
NIFI大数据进阶_离线同步MySql数据到HDFS_02_实际操作_splitjson处理器_puthdfs处理器_querydatabasetable处理器---大数据之Nifi工作笔记0030
查看>>
NIFI大数据进阶_连接与关系_设置数据流负载均衡_设置背压_设置展现弯曲_介绍以及实际操作---大数据之Nifi工作笔记0027
查看>>
NIFI数据库同步_多表_特定表同时同步_实际操作_MySqlToMysql_可推广到其他数据库_Postgresql_Hbase_SqlServer等----大数据之Nifi工作笔记0053
查看>>
NIFI汉化_替换logo_二次开发_Idea编译NIFI最新源码_详细过程记录_全解析_Maven编译NIFI避坑指南001---大数据之Nifi工作笔记0068
查看>>
NIFI集群_内存溢出_CPU占用100%修复_GC overhead limit exceeded_NIFI: out of memory error ---大数据之Nifi工作笔记0017
查看>>
NIH发布包含10600张CT图像数据库 为AI算法测试铺路
查看>>
Nim游戏
查看>>
NIO ByteBuffer实现原理
查看>>
Nio ByteBuffer组件读写指针切换原理与常用方法
查看>>
NIO Selector实现原理
查看>>
nio 中channel和buffer的基本使用
查看>>
NIO基于UDP协议的网络编程
查看>>
NISP一级,NISP二级报考说明,零基础入门到精通,收藏这篇就够了
查看>>
Nitrux 3.8 发布!性能全面提升,带来非凡体验
查看>>
NI笔试——大数加法
查看>>
NLog 自定义字段 写入 oracle
查看>>