首页 > 计算机等级考试
题目内容 (请给出正确答案)
[单选题]

如果HDFS块大小为64MB,输入有三个文件大小分别是20MB、70MB和127MB,Map-Reduce会启动几个map任务?()

A.1

B.3

C.2

D.5

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“如果HDFS块大小为64MB,输入有三个文件大小分别是20M…”相关的问题
第1题
如果HDFS块大小为64MB,输入有三个文件大小分别是20MB、70MB和127MB,Map-Reduce会启动几个map任务?()

A.1

B.2

C.3

D.5

点击查看答案
第2题
HDFS的Block块的默认大小是多大?()

A.32MB

B.64MB

C.128MB

D.16MB

点击查看答案
第3题
HDFS中的文件在物理.上是分块存储(block)的,块的大小可以通过配置参数来规定,在hadoop2.x版本中默认大小是多少?()

A.32MB

B.64MB

C.128MB

D.16MB

点击查看答案
第4题
HDFS有一个gzip文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce任务读取该文件时inputsplit大小为()。

A.64MB

B.128MB

C.75MB

D.一个map读取64MB,另外一个读取11MB

点击查看答案
第5题
在HDFS中,默认一个块多大()。

A.32MB

B.256MB

C.64MB

D.128MB

点击查看答案
第6题
下列关于HadoopHDFS,说法错误的是()。

A.HDFS并不是一个单机文件系统,它是分布在多个集群节点上的文件系统

B.仅仅对数据进行冗余备份还不够,HDFS要有一个更有效的副本存放策略

C.对于HDFS来说,丢失一个Data Node意味着丢失了存储在它的硬盘上的数据块的副本

D.如果要存放数据的节点宕机,HDFS会再分配三个节点给数据块

点击查看答案
第7题
假如我们设定hdfs块的大小是128M,那么,一个大小为500M的数据文件,将会被拆分成()个分片。

A.4

B.3

C.2

D.5

点击查看答案
第8题
下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是()

A.FSDataInputStream扩展了DataInputStream以支持随机读

B.为实现细粒度并行,输入分片(Input Split)应该越小越好

C.一台机器可能被指派从输入文件的任意位置开始处理一个分片

D.输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割

点击查看答案
第9题
关于HDFS数据块错误的是()

A.默认128M

B.每个数据块都有备份

C.每个数据块在集群服务器分配存储

D.数据块如果小于128M,则也需要占128M的磁盘空间

点击查看答案
第10题
关于HDFS集群中的DataNode的描述不正确的是()。

A.DataNode之间都是独立的,相互之间不会有通信

B.存储客户端上传的数据的数据块

C.一个D,taNode上存储的所有数据块可以有相同的

D.响应客户端的所有读写数据请求,为客户端的存储和读取数据提供支撑

点击查看答案
第11题
一个Gzip文件大小为75MB,客户端设置Block大小为64MB,问其占用几个Block()

A.1

B.2

C.3

D.4

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改