您的位置:首页 > 游戏 > 游戏 > 灵感素材库_北京城乡建设委员会官网_短链接生成器_百度产品大全首页

灵感素材库_北京城乡建设委员会官网_短链接生成器_百度产品大全首页

2024/12/23 11:29:14 来源:https://blog.csdn.net/qq_28314431/article/details/143364907  浏览:    关键词:灵感素材库_北京城乡建设委员会官网_短链接生成器_百度产品大全首页
灵感素材库_北京城乡建设委员会官网_短链接生成器_百度产品大全首页

就如上图中的技术分类,大数据技术主要解决的就是海量数据的存储和计算问题

这两个问题的解决方案最先被 Google 被提出,用于解决 Google 搜索引擎海量的网页存储和索引的构建。对应的技术就是日后被人所熟知的 HDFSMapReduce

不关注大数据的可能对这两个名词比较陌生,但是Hadoop大家一定都听说过吧。HDFS 和 MapReduce 就是 Hadoop 项目中的两个核心组件,一个用于解决海量数据存储问题,一个用来解决海量数据计算问题

HDFS:我解决了存储

HDFS 全称为分布式文件系统,没错,只要是涉及到分布式,任何一个大问题都能分成多个小问题一一解决,所以大数据技术的本质的也是分而治之

HDFS 的分而治之就是将一个大文件切分成多个数据块分布在不同服务器上存储,如下图

DataNodes 就是用来存储这些数据块的服务器集群,物理表现就是一群 JVM 进程。NameNode 是用来管理一个大文件被分了多少块、分别存在哪个服务器,方便查找定位。

HDFS 整体思想比较容易理解,但实现起来并不简单,背后还要考虑很多问题,例如文件如何分片、如何保证数据不丢失、某个服务器故障怎么办、如何实现数据的扩展性等等。

如果对这些实现细节感兴趣,请关注我,欢迎大家一起交流。

MapReduce:我解决了计算

存储问题解决了,计算问题是如何解决的?

试想一下,要计算一个大小为100G的文件中某个字符出现的次数,应该怎么做?

用一个计算节点读取分布在 HDFS 中的一个个数据块进行计算?那这个计算节点需要多大的内存?即便有这么大的内存,多久能计算完?

如果你是这样的想法,请跳出单机思维

看下 MapReduce 是怎么做的。

MapReduce 作为大规模计算框架,它的核心思想是这样的:既然一个大文件可以作为多个数据块存储在 HDFS 集群中,那何不将计算的程序直接传输到这些数据块所在的节点进行分布式计算?

以128M(HDFS 默认分割大小)为一个数据块,100G得有800个数据块。如果按照单机思维,最少要进行800次128M的传输。但如果把一个1M大小的程序传输800次,是不是比前者划算?这也是大数据计算中非常重要的一个思想:移动计算比移动数据更划算

而之所以叫 MapReduce,是因为 MapReduce 将计算分为了 Map 和 Reduce 两个阶段。开发人员在编码时只需要编写 Mapper 和 Reducer 的实现即可,不用关注程序的移动、计算结果的聚合等分布式编程工作

以统计字符出现次数的代码为例:

public class WordCount {public static class TokenizerMapper extends Mapper<Object, Text, Text, IntWritable>{private final static IntWritable one = new IntWritable(1);private Text word = new Text();public void map(Object key, Text value, Context context) throws IOException, InterruptedException {StringTokenizer itr = new StringTokenizer(value.toString());while (itr.hasMoreTokens()) {word.set(itr.nextToken());context.write(word, one);}}}public static class IntSumReducer extends Reducer<Text,IntWritable,Text,IntWritable> {private IntWritable result = new IntWritable();public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {int sum = 0;for (IntWritable val : values) {sum += val.get();}result.set(sum);context.write(key, result);}}public static void main(String[] args) throws Exception {Configuration conf = new Configuration();String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();if (otherArgs.length < 2) {System.err.println("Usage: wordcount <in> [<in>...] <out>");System.exit(2);}Job job = Job.getInstance(conf, "word count");job.setJarByClass(WordCount.class);job.setMapperClass(TokenizerMapper.class);job.setCombinerClass(IntSumReducer.class);job.setReducerClass(IntSumReducer.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(IntWritable.class);for (int i = 0; i < otherArgs.length - 1; ++i) {FileInputFormat.addInputPath(job, new Path(otherArgs[i]));}FileOutputFormat.setOutputPath(job,new Path(otherArgs[otherArgs.length - 1]));System.exit(job.waitForCompletion(true) ? 0 : 1);}
}

main方法执行后,最终会将 Mapper 和 Reducer 的实现作为计算任务分发到数据所在的节点。这样,每个计算任务只用计算128M的数据,800个计算任务同时计算就达到了并行计算的效果,从而实现海量数据的快速计算。

并行计算大概是这样:

在这里插入图片描述

每个节点都会先执行 Map 任务(TokenizerMapper) ,将字符出现的次数设置为1,并输出为map(key,value)格式。然后执行 Reduce 任务 (IntSumReducer)将相同字符(key)的次数相加,最后将各节点的结果聚合。

总之,MapReduce 解决了海量数据计算的问题,提供 Map 和 Reduce 这样简单的编程模型,也简化了开发人员对大数据计算的编程难度。

MapReduce 是如何进行任务分发的、计算结果是如何聚合的?如果对这些实现细节感兴趣,请关注我,欢迎大家一起交流。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com