首页 > 其他 > 详细

HDFS读写流程

时间:2019-07-13 22:37:41      阅读:168      评论:0      收藏:0      [点我收藏+]

HDFS写流程

技术分享图片

Client

  • 切分文件Block
  • 按Block线性和NN获取DN列表(副本数)
  • 验证DN列表后以更小的单位流式传输数据
  • 各节点,两两通信确定可用
  • Block传输结束后
    • DN向NN汇报Block信息
    • DN向Client汇报完成
    • Client向NN汇报完成
  • 获取下一个Block存放的DN列表
  • 。。。。。。
  • 最终Client汇报完成
  • NN会在写流程更新文件状态

HDFS读流程

技术分享图片

Client

  • 向NN获取一部分Block副本位置列表
  • 线性和DN获取Block,最终合并为一个文件
  • 在Block副本列表中按距离择优选取
  • MD5验证数据完整性

HDFS文件权限  POSIX标准(可移植操作系统接口)

  • 与Linux文件权限类似
    • r: read; w:write; x:execute
    • 权限x对于文件忽略,对于文件夹表示是否允许访问其内容
  • 如果Linux系统用户zhangsan使用hadoop命令创建一个文件,那么这个文件在HDFS中owner就是zhangsan。
  • HDFS的权限目的:阻止误操作,但不绝对。HDFS相信,你告诉我你是谁,我就认为你是谁。

HDFS安全模式

  • namenode启动的时候,首先将映像文件(fsimage)载入内存,并执行编辑日志(edits)中的各项操作。
  • 一旦在内存中成功建立文件系统元数据的映射,则创建一个新的fsimage文件(这个操作不需要SecondaryNameNode)和一个空的编辑日志。
  • 此刻namenode运行在安全模式。即namenode的文件系统对于客服端来说是只读的。(显示目录,显示文件内容等。写、删除、重命名都会失败,尚未获取动态信息)。
  • 在此阶段Namenode收集各个datanode的报告,当数据块达到最小副本数以上时,会被认为是“安全”的, 在一定比例(可设置)的数据块被确定为“安全”后,再过若干时间,安全模式结束
  • 当检测到副本数不足的数据块时,该块会被复制直到达到最小副本数,系统中数据块的位置并不是由namenode维护的,而是以块列表形式存储在datanode中。

HDFS读写流程

原文:https://www.cnblogs.com/dragon-123/p/11182326.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!