Hadoop深度运维:Apache集群原地升级Ambari-HDP( 五 )
(点击图片可查看清晰大图)
下图是整个集群的操作流程:
(点击图片可查看清晰大图)
二、各组件升级的技术本质和挑战
升级顺序是:
Zookeeper → HDFS → Yarn → HBase
升级的通用思想是:备份老集群的元数据目录,用HDP版本的进程,使用新备份出来的元数据目录启动。如果遇到任何错误,可以迅速回滚(使用Apache版本的进程,使用老的元数据目录重启)。
备份元数据的好处是,新HDP进程启动过程中发生任何问题,不会污染老的元数据。
每个组件在升级过程中,都有一些特殊的难点,分别阐述:
推荐阅读
- 无尽梦魇|魔兽世界TBC:深度解析“翠绿的宝珠”对哪些职业保值
- 李九|S组才是真正的宝藏!解说李九深度分析KPL秋季赛第三轮,爆发到了
- 王者荣耀|英雄联盟手游被指抄袭王者荣耀?王者玩家看好了,这叫深度还原
- fpx战队|深度分析:FPX四个0-1的惨败原因,S11的FPX能否登顶外战第一耻辱
- 银河战士融合|传《银河战士融合》初代正开发中,深度重制,明年E3前发售
- 王者荣耀|原神:雷神与心海选谁?深度解析避免踩坑,帮你做出正确选择
- iqoo8|为什么这几年中国LOL这么强?深度解析!另有一个问题亟待解决
- RNG|赛前BB机:RNGVSLNG,谁能晋级四强?深度分析,让我们一起讨论下
- 喋血复仇|和平精英:AKM vs M762深度对比测评,KS阿神带你详细了解
- 穿越火线|CF:深度分析,存在感为0的英雄级武器是怎么混到这一步的