阿里巴巴飞天大数据架构体系与Hadoop生态系统( 五 )
Client:用户与HDFS的桥梁。主要用于切分用户提交的文件,与NameNode交互,获得文件位置信息。然后直接与DataNode交互,读取和写入数据。
HDFS写入流程(参考的现有文档):
1、用户向Client(客户机)提出请求。例如,需要写入200MB的数据。
2、Client制定计划:将数据按照64MB为块,进行切割;所有的块都保存三份。
3、Client将大文件切分成块(block)。
4、针对第一个块,Client告诉NameNode(主控节点),请帮助我,将64MB的块复制三份。
5、NameNode告诉Client三个DataNode(数据节点)的地址,并且将它们根据到Client的距离,进行了排序。
6、Client把数据和清单发给第一个DataNode。
7、第一个DataNode将数据复制给第二个DataNode。
8、第二个DataNode将数据复制给第三个DataNode。
推荐阅读
- 捉迷藏|?LOL世界赛“含金量”数据出炉:EDG仅排第六,IG稳居榜首
- 碧蓝航线|碧蓝航线SR重巡福煦数据详解 期待越高失望越大 强度平平无奇
- kramer|国服极地大乱斗数据上线,来看看胜率榜符合你的预期吗?
- 米莱狄|峡谷数据榜:分均输出TOP5,干将莫邪只排第四,米莱狄至今被误解
- |S11淘汰赛数据盘点:场均时长为33分 55个不同英雄登场
- 中单|2021年英雄联盟世界赛终于落下帷幕!!大数据统计二!!
- 灵饰|梦幻西游:109级法系前排灵饰选择方法,用数据告诉你怎么做
- 卡牌|S11淘汰赛数据出炉,卡牌24场全被ban,压刀最多竟是辅助
- edg战队|堡垒之夜国服将清除数据,EDG创造队史晋级S11世界赛决赛
- 原神|原神:流水预测数据还在变化,日本的预估流水,倒是有了小状况