RAC 环境下某个节点系统故障重装系统,如何再加入集群

2020-11-02 00:00:00 集群 执行 节点 故障 脚本

RAC环境下某个节点异常退出,比如重装系统,但是没有正常停止故障节点的集群资源,系统恢复后再加入集群就需要考虑更多因素,下面是流程总结

增加节点步骤:
1 删除集群中已经有的目前故障节点的资源信息
如vip ,instance,(service不删固定到好的节点即可)
2 在新节点作预安装准备工作。
硬件兼容
配置操作系统参数
SSH
共享存储
创建用户组,用户,目录,目录授权
3 检查满足安装前的各种需求
需要与其他好的节点配置匹配-操作系统版本,芯片架构
在已存在的节点执行如下检查操作
cluvfy stage -pre crsinst -n racnode2 -verbose

认真分析Failed部分
4 通过 OUI方式或静默方式增 加集群节点,创建新的Grid home
(1)确认新节点具备增加Grid-home的条件
cluvfy stage -pre nodeadd -n racnode2 -verbose
(2) 增加节点,在好de 节点
cd $GRID_HOME/addnode
./addNode.sh -silent "CLUSTER_NEW_NODES={racnode2}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={racnode2-vip}"

如果12c 还有个ROLE=hub选项
脚本执行完毕后
在新的节点执行root.sh脚本
安装后确认,在新的节点

cd $GRID_HOME/bin
./cluvfy stage -post nodeadd -n racnode2 -verbose


5 在新节点使用DBCA和或静默方式增加数据库实例
在好的节点oracle用户
cd $ORCLE_HOME/addnode
./addNode.sh -silent "CLUSTER_NEW_NODES={racnode2}"

脚本跑完后,在新节点执行root.sh 脚本

6 后续验证,集群资源是否正常,数据库是否可以正常访问。处理发现的问题。


相关文章