Hadoop深度运维:Apache集群原地升级Ambari-HDP(12)

本次Hadoop升级,预支了6个小时的停服窗口期。但运维中的每一项工作,仍然要不断地压缩操作时长。

1)能前置的工作尽量前置:

新机器准备,新机器操作系统统一;ambari-server安装& ams安装;ambari集群配置文件准备。这里着重说下Ambari集群的配置脚本化。在改为Ambari集群后,首先要把所有slave节点加入Ambari托管,再梳理老集群所有组件的所有配置,然后apply到Ambari集群上。

而在Ambari添加节点&更改每一个组件的配置,如果通过webUI逐项更改,都耗时太长。经过调研,我们将以上所有工作自动化:

使用API安装组件,提升效率;使用configs.py设置配置参数,节约手动配置时间,例如在ambari-server节点上:python/var /lib/ambari-server/resources/s/ configs.py -n $cluster -l $hostname -c hadoop-env -a set -f hadoop-env.json

2)充分压缩单项操作的操作时长:

操作自动化。

此次升级工作中,我们采用的是Ansible自动化工具来批量执行大量操作,包括停止集群脚本、etc_hosts 配置脚本、bashrc 配置脚本、agent 刷配置脚本、测试脚本。根据需要,预先编写好playbook并在ansible-AWX中配置妥当,就可以在升级过程中一键执行。不仅省去了手工执行的时间消耗,并行执行也大大提高操作效率,压缩操作时长。

推荐阅读