博客
关于我
《大数据: Hadoop(HDFS) 读写数据流程分析》
阅读量:256 次
发布时间:2019-03-01

本文共 445 字,大约阅读时间需要 1 分钟。

HDFS数据写入流程概述

Hadoop Distributed File System (HDFS) 作为一种分布式存储系统,其数据写入流程涉及多个关键组件和步骤。以下将从客户端和服务端两个维度详细阐述HDFS的数据写入过程。

  • 1. 服务端启动HDFS组件
  • a. NameNode (NN) 和 DataNode (DN) 的启动
  • b. NameNode 处理高级功能
  • 2. 客户端初始化文件系统客户端
  • a. 客户端与 NameNode 连接
  • b. 客户端获取文件系统信息
  • 3. 数据上传前的准备工作
  • a. 文件路径校验
  • b. 权限检查
  • 4. 数据块大小和副本数配置
  • a. 客户端设置默认块大小(0-128M)
  • b. 自定义副本数(默认为3)
  • 5. 数据块上传过程
  • a. NameNode 返回目标 DataNode 节点列表
  • b. 客户端选择最近网络的 DataNode 进行数据传输
  • 6. 数据块传输与写入
  • a. DataNode 接收并存储数据块
  • b. 数据块校验与复制(根据副本数)

转载地址:http://lkut.baihongyu.com/

你可能感兴趣的文章
npm报错Cannot find module ‘webpack‘ Require stack
查看>>
npm报错Failed at the node-sass@4.14.1 postinstall script
查看>>
npm报错fatal: Could not read from remote repository
查看>>
npm报错File to import not found or unreadable: @/assets/styles/global.scss.
查看>>
npm报错TypeError: this.getOptions is not a function
查看>>
npm报错unable to access ‘https://github.com/sohee-lee7/Squire.git/‘
查看>>
npm淘宝镜像过期npm ERR! request to https://registry.npm.taobao.org/vuex failed, reason: certificate has ex
查看>>
npm版本过高问题
查看>>
npm的“--force“和“--legacy-peer-deps“参数
查看>>
npm的安装和更新---npm工作笔记002
查看>>
npm的常用操作---npm工作笔记003
查看>>
npm的常用配置项---npm工作笔记004
查看>>
npm的问题:config global `--global`, `--local` are deprecated. Use `--location=global` instead 的解决办法
查看>>
npm编译报错You may need an additional loader to handle the result of these loaders
查看>>
npm设置淘宝镜像、升级等
查看>>
npm设置源地址,npm官方地址
查看>>
npm设置镜像如淘宝:http://npm.taobao.org/
查看>>
npm配置安装最新淘宝镜像,旧镜像会errror
查看>>
NPM酷库052:sax,按流解析XML
查看>>
npm错误 gyp错误 vs版本不对 msvs_version不兼容
查看>>