Hadoop运行的是Map Reduce任务,类似地,Storm运行的任务叫做()。
A.Topology
B.Bolt
C.Tuple
D.Spout
A.Topology
B.Bolt
C.Tuple
D.Spout
A.600600
B.3000600
C.3000300
D.300300
A.Hadoop的核心是HDFS和Map Reduce
B.Hadoop是基于Java语言开发的,只支持Java语言编程
C.Hadoop2.0增加了Name NodeHA和Wire-compatibility两个重大特性
D.Hadoop Map Reduce是针对谷歌Map Reduce的开源实现,通常用于大规模数据集的并行计算
A.MapReduce是处理大量半结构化数据集合的编程模型
B.MapReduce和Hadoop是相互独立的
C.MapReduce使用一种集合语言执行查询
D.MapReduce是Map和Reduce的两部分用户程序组成
A、Hive最终将数据存储在HDFS中
B、Hive是Hadoop平台的数据仓库工具
C、HQL可以通过Map Reduce执行任务
D、Hive对HBase有强依赖
A.Spark引进了弹性分布式数据集RDD(ResilientDistributedDataset)的抽象,容错性高
B.Spark提供的数据集操作类型不仅限于Map和Reduce,大致分为:Transformations和Actions两大类
C.Spark程序由Python语言进行编写,不支持Java语言进行的程序编写
D.Spark把中间数据放到内存中,迭代运算效率高
A、lob
B、Context
C、File System
D、Configuration
A、Fusion insight Manager的web界面
B、Loader Web界面
C、Solrweb界面
D、YamWeb界面
A.io.sort.mb
B.mapred.compress.map.output
C.mapred.map.output.compression.codec
D.io.sort.spill.percent
A.分为Map和Reduce两个阶段
B.Map阶段由一系列Map任务组成
C.Reduce阶段由一系列Reduce任务组成
D.Map阶段与Reduce阶段没有任何依赖关系