Hadoop介绍

 

允许用户使用简单的编程模型实现跨机器集群对海量数据进行分布式计算处理

 

Hadoop核心组件

Hadoop HDFS(分布式文件存储系统):解决海量数据存储

Hadoop YARN(集群资源管理和任务调度框架):解决资源任务调度

Hadoop MapReduce(分布式计算框架):解决海量数据计算

 

HDFS集群与YARN集群

 

HDFS角色

主角色——NameNode

NameNode是Hadoop分布式文件系统的核心,架构中的主角色

NameNode维护和管理文件系统元数据,包括名称空间目录树结构、文件和块的位置信息、访问权限等信息

 

NameNode职责

 

从角色——DataNode

DataNode是Hadoop HDFS中的从角色,负责具体的数据块存储

DataNode的数量决定了HDFS集群的整体数据存储能力。

 

DataNode职责

 

主角色辅助角色——Secondary NameNode

Secondary NameNode充当NameNode的辅助节点,但不能替代NameNode

主要是帮助主角色进行元数据文件的合并动作

 

MapReduce局限性

 

MapReduce实例进程

MRAppMaster:负责整个MR程序的过程调度及状态协调

MapTask:负责map阶段的整个数据处理流程

ReduceTask:负责reduce阶段的整个数据处理流程

 

Map阶段执行过程

第一阶段:把输入目录下文件俺找一定的标准逐个进行逻辑切片,形成切片规划。

默认Split size = Block size(128M),每一个切片由一个MapTask处理

 

第二阶段:对切片中的数据俺找一定的规则读取解析返回<key,value>对。

默认是按行读取数据,key是每一行的起始位置偏移量,value是本行的文本内容

 

第三阶段:调用Mapper类中的map方法处理数据,每读取解析出来的一个<key, value>,调用一次map方法

第四阶段:按照一定的规则对Map输出的键值对进行粪蛆partition。默认不分区,因为只有一个reducetask。分区的数量就是reducetask运行的数量

第五阶段:Map输出数据写入内存缓冲区,达到比例溢出到磁盘上。溢出spill的时候根据key进行排序sort

第六阶段:对所有溢出文件进行最终的merge合并,成为一个文件

 

Shuffle

再MapReduce中,指的是将map端的无规则输出按指定的规则“打乱”成具有一定规则的数据,以便reduce端接收处理。一般把从Map产生输出开始到Reduce取得数据作为输入之前的过程称为Shuffle

 

Shuffle机制弊端——频繁涉及到数据在内存、磁盘之间的多次往复

 

Reduce阶段执行过程

第一阶段:ReduceTask会主动从MapTask复制拉取属于需要自己处理的数据

第二阶段:把拉取来数据,全部进行合并merge,再对合并后的数据进行排序

第三阶段:把排序后的键值对调用reduce方法。键相等的键值对调用一次reduce方法。最后把这些输出的键值对写入到HDFS文件中

 

Yarn三大组件

 

MR提交YARN交互流程

第一步:用户通过客户端向YARN中ResourceManager提交应用程序(比如hadoop jar提交MR程序)

第二步:ResourceManager为该应用程序分配第一个Container(容器),并与对应的NodeManager通信,要求它在这个Container中启动这个应用程序的ApplicationMaster

第三步:ApplicationMaster启动成功之后,首先向RM注册并保持通信,这样用户可以直接通过RM查看应用程序的状态(处理了百分之几)

第四步:AM为本次程序内部的各个Task任务向RM申请资源,并监控它的运行状态

第五步:一旦AM申请到资源后,便与对应的NM通信,并要求它启动任务

第六步:NM为任务设置好运行环境后,将任务启动命令写到一个脚本中,并通过运行该脚本启动任务

第七步:各个任务通过RPC协议向AM汇报自己的状况和进度,以让AM掌握实际情况,从而可以在失败时进行重启。运行过程中,用户可随时通过RPC向AM查询应用程序的当前运行状态

第八步:应用程序运行完成后,AM向RM注销并关闭自己

 

Yarn三种调度器

FIFO Scheduler(先进先出调度器)

 

Capacity Scheduler(容量调度器,默认使用)

 

可根据公司业务需求,以队列为单位划分资源,如图

 

Fair Scheduler(公平调度器)

 

Hadoop安装目录结构

 

Hadoop配置文件

 

文件系统协议

 

 fs.defaultFS属性在hadoop安装目录/etc/hadoop/core-site.xml文件中,内容为

    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node1:8020</value>
    </property>

 

hadoop常见指令

 

mapReduce的jar包地址:/hadoop-3.3.4/share/hadoop/mapreduce

启动hadoop集群服务——start-all.sh

 

创建文件夹——hadoop fs -mkdir 

 

 

查看指定目录下内容——hadoop fs -ls

 

 

上传文件到HDFS指定目录下——hadoop fs -put

查看HDFS文件内容——hadoop fs -cat 

下载HDFS文件——hadoop fs -get 

 拷贝HDFS文件——hadoop fs -cp

追加数据到HDFS文件中——hadoop fs appendToFile

原文地址:http://www.cnblogs.com/tianshu/p/16786534.html

1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长! 2. 分享目的仅供大家学习和交流,请务用于商业用途! 3. 如果你也有好源码或者教程,可以到用户中心发布,分享有积分奖励和额外收入! 4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解! 5. 如有链接无法下载、失效或广告,请联系管理员处理! 6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需! 7. 如遇到加密压缩包,默认解压密码为"gltf",如遇到无法解压的请联系管理员! 8. 因为资源和程序源码均为可复制品,所以不支持任何理由的退款兑现,请斟酌后支付下载 声明:如果标题没有注明"已测试"或者"测试可用"等字样的资源源码均未经过站长测试.特别注意没有标注的源码不保证任何可用性