MapReduce基本介绍
MapReduce基本定义:
MapReduce是面向大数据并行处理的计算模型、框架和平台。
它包含以下三层含义:
- MapReduce是一个基于集群的高性能并行计算平台(Cluster Infrastructure)。
- MapReduce是一个并行计算与运行软件框架(Software Framework)。
- MapReduce是一个并行程序设计模型与方法(Programming Model & Methodology)。
MapReduce模型简介:
- MapReduce将复杂的、运行于大规模集群上的并行计算过程高度地抽象到了两个函数:Map和Reduce。
- 编程容易,不需要掌握分布式并行编程细节,也可以很容易把自己的程序运行在分布式系统上,完成海量数据的计算。
- MapReduce采用“分而治之”策略,一个存储在分布式文件系统中的大规模数据集,会被切分成许多独立的分片(split),这些分片可以被多个Map任务并行处理。
- MapReduce设计的一个理念就是“计算向数据靠拢”,而不是“数据向计算靠拢”,因为,移动数据需要大量的网络传输开销。
- MapReduce框架采用了Master/Slave架构,包括一个Master和若干个Slave。Master上运行JobTracker,Slave上运行TaskTracker。
- Hadoop框架是用Java实现的,但是,MapReduce应用程序则不一定要用Java来写。
MadReduce的特点:
MapReduce基于Google发布的并行计算框架。MapReduce论文设计开发,用于大规模数据集(大于1TB)的并行计算,具有如下特点:
- 易于编程:程序员仅需描述做什么,具体怎么做由系统的执行框架处理。
- 良好的扩展性:可通过添加结点以扩展集群能力。
- 高容错性:通过计算迁移或数据迁移等策略提高集群的可用性与容错性。
MapReduce与传统并行计算框架的对比:
传统并行计算框架 | MapReduce | |
---|---|---|
集群架构/容错性 | 共享式(共享内存、共享存储),容错性差 | 非共享式,容错性好 |
硬件/价格/扩展性 | 刀片服务器、高速网、SAN,价格贵,扩展性差 | 普通PC机,便宜,扩展性好 |
编程/学习难度 | what-how,难 | what,简单 |
实时、细粒度计算、计算密集型 | 批处理、非实时、数据密集型 |
Map和Reduce函数:
MapReduce的体系结构
MapReduce的体系结构构成:
MapReduce体系结构主要由四个部分组成,分别是:Client、JobTracker、TaskTracker以及Task。
MapReduce主要有以下4个部分组成:
(1)Client:
- 用户编写的MapReduce程序通过Client提交到JobTracker端。
- 用户可通过Client提供的一些接口查看作业运行状态。
(2)JobTracker:
- JobTracker负责资源监控和作业调度。
- JobTracker 监控所有TaskTracker与Job的健康状况,一旦发现失败,就将相应的任务转移到其他节点。
- JobTracker 会跟踪任务的执行进度、资源使用量等信息,并将这些信息告诉任务调度器(TaskScheduler),而调度器会在资源出现空闲时,选择合适的任务去使用这些资源。
(3)TaskTracker:
- TaskTracker 会周期性地通过“心跳”将本节点上资源的使用情况和任务的运行进度汇报给JobTracker,同时接收JobTracker 发送过来的命令并执行相应的操作(如启动新任务、杀死任务等)。
- TaskTracker 使用“slot”等量划分本节点上的资源量(CPU、内存等)。一个Task 获取到一个slot 后才有机会运行,而Hadoop调度器的作用就是将各个TaskTracker上的空闲slot分配给Task使用。slot 分为Map slot 和Reduce slot 两种,分别供MapTask 和Reduce Task 使用。
(4)Task:
- Task 分为Map Task 和Reduce Task 两种,均由TaskTracker 启动。
MapReduce工作流程
工作流程概述:
- 不同的Map任务之间不会进行通信。
- 不同的Reduce任务之间也不会发生任何信息交换。
- 用户不能显式地从一台机器向另一台机器发送消息。
- 所有的数据交换都是通过MapReduce框架自身去实现的。
MapReduce各个执行阶段:
Split(分片):
HDFS 以固定大小(默认为128MB)的block 为基本单位存储数据,而对于MapReduce 而言,其处理单位是split。split 是一个逻辑概念,它只包含一些元数据信息,比如数据起始位置、数据长度、数据所在节点等。它的划分方法完全由用户自己决定。
Map任务的数量:
Hadoop为每个split创建一个Map任务,split 的多少决定了Map任务的数目。大多数情况下,理想的分片大小是一个HDFS块。
Reduce任务的数量:
最优的Reduce任务个数取决于集群中可用的reduce任务槽(slot)的数目。
通常设置比reduce任务槽数目稍微小一些的Reduce任务个数(这样可以预留一些系统资源处理可能发生的错误)。
Shuffle过程详解:
Map端的Shuffle过程:
- 每个Map任务分配一个缓存.
- MapReduce默认100MB缓存.
- 设置溢写比例0.8。
- 分区默认采用哈希函数。
- 排序是默认的操作。
- 排序后可以合并(Combine)。
- 合并不能改变最终结果。
- 在Map任务全部结束之前进行归并。
- 归并得到一个大的文件,放在本地磁盘。
- 文件归并时,如果溢写文件数量大于预定值(默认是3)则可以再次启动Combiner,少于3不需要。
- JobTracker会一直监测Map任务的执行,并通知Reduce任务来领取数据。
合并(Combine)和归并(Merge)的区别:
两个键值对<“a”,1>和<“a”,1>,如果合并,会得到<“a”,2>,如果归并,会得到<“a”,<1,1>>
Reduce端的shuffle过程:
- Reduce任务通过RPC向JobTracker询问Map任务是否已经完成,若完成,则领取数据。
- Reduce领取数据先放入缓存,来自不同Map机器,先归并,再合并,写入磁盘。
- 多个溢写文件归并成一个或多个大文件,文件中的键值对是排序的。
- 当数据很少时,不需要溢写到磁盘,直接在缓存中归并,然后输出给Reduce。
MapReduce应用程序执行过程:
MapRduce过程详解:
以上内容为听华为大数据培训课程和大学MOOC上厦门大学 林子雨的《大数据技术原理与应用》课程而整理的笔记。
大数据技术原理与应用: https://www.icourse163.org/course/XMU-1002335004