本文共 1773 字,大约阅读时间需要 5 分钟。
由于测试环境打19c补丁失败,导致节点2 (d2) CRS无法启动,解决方案为删除节点2后再添加。
在正常节点1上执行以下操作(因节点2集群CRS无法启动,删除操作需在节点1执行):
srvctl stop instance -d db_unique_name -node node_namessrvctl relocate server -servers "server_name_list" -serverpool Freesrvctl config database -d db_unique_nameoracle$ srvctl config database -d orcldbca -silent -deleteInstance -nodeList d2 -gdbName orcl -instanceName orcl2 -sysDBAUserName sysdba -sysDBAPassword oracle
删除实例时,需确保本地实例已启动,若未启动可执行以下命令启动实例:
srvctl start instance -d orcl -instance orcl1
在节点2上执行以下操作,确保操作权限已设置:
oracle$ ORACLE_HOME=/u03/app/oracle/product/19.0.0/db_1./runInstaller -updateNodeList "CLUSTER_NODES={d2}" -local 删除Oracle软件时,需确保节点2没有锁定,若锁定可执行以下命令解锁:
crsctl unpin css -n delete_node
在删除节点2上执行以下操作:
su - rootcd /u01/app/19.0.0/grid/crs/install./rootcrs.pl -deconfig -force
若删除整个集群,在最后一个节点执行:
./rootcrs.pl -deconfig -force -lastnode
在节点1上执行以下操作,确保节点2已准备好:
cluvfy comp peer -refnode d1 -n d2 -verbose/u01/app/19.0.0/grid/addnode/addnode.sh -silent -ignoreSysPrereqs -ignorePrereqFailure "CLUSTER_NEW_NODES={d2}" "CLUSTER_NEW_PRIVATE_NODE_NAMES={d2-priv}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={d2-vip}" 运行完成后,验证节点状态:
cluvfy stage -post nodeadd -n d2
在节点2上执行以下操作:
/u03/app/oracle/product/19.0.0/db_1/addnode/addnode.sh -silent -ignoreSysPrereqs -ignorePrereqFailure "CLUSTER_NEW_NODES={d2}" 测试环境下,静默方式添加节点2实例:
srvctl start instance -d abc -instance abc1
通过DBCA静默添加节点2实例:
dbca -ignorePreReqs -ignorePrereqFailure -silent -addInstance -nodeName d2 -gdbName abc -instanceName abc2 -sysDBAUserName sys -sysDBAPassword oracle
在添加节点时,补丁信息显示自动打上补丁:
grid@d1:/u01/app/19.0.0/grid/OPatch$ ./opatch lsinventory
以上步骤可帮助您顺利完成测试环境下Oracle RAC节点的删除与添加工作。
转载地址:http://lvlyz.baihongyu.com/