68,409
社区成员
实例故障修复
GaussDB Kernel实例出现故障时,可以按照本节的办法进行实例快速修复。
1、执行gs_om -t status --detail查看集群状态,cluster_state为Normal,balanced为No,请重置实例状态。
2、执行gs_om -t status --detail查看集群状态,cluster_state为Degraded,表示有实例异常,但是集群依然可以正常对外提供服务。此时,虽然不影响业务运行,但是主备实例切换将加重某些节点上的工作负载,时间久了,可能带来这些对应节点上的资源耗尽,进而影响业务运行。因此集群处于Degraded状态时,建议尽快定位,使集群恢复至Normal状态。GaussDB Kernel提供了如下办法,协助用户在操作系统和硬件正常时的实例快速修复。
3、CN实例异常,优先通过删除CN和增加CN进行实例恢复。
4、各类实例异常的通用办法——修改HOSTNAME、IP和端口号。
集群在运行过程中,如果发生了主机或某些实例故障,集群管理模块会自动将备实例提升为主实例继续提供服务;或是由于数据库集群管理人员手工进行过主备切换操作后,使当前集群各主机上运行的主实例(GTM,DN)数不均等,造成集群负载不均衡,即集群“balanced”状态为"No"。这种情况下可以通过集群管理命令将集群中的数据库实例恢复为初始配置的主备状态。
存在实例异常时,需要先将实例修复后,才能进行重置。
“cluster_state”为“Normal”表示集群运行正常。“balanced”状态为“No”表示集群实例发生过主备切换。
gs_om -t status --detail
gs_om -t status --detail
例如下面示例中,node2节点上的主dn2发生过主备切换。该DN原始为主DN(“state”中的字母“P”代表其初始为Primary DN),当前切换成了备DN(“state ”状态变成了“Standby Normal”)。
gs_om -t switch --reset --time-out=300
300为切换的等待时间,单位为s。切换后集群的“balanced”状态变为“Yes”。
查询当前发生过切换的实例。
gs_om -t switch
Operation: Switch query.
[ GTM State ]
node instance state
--------------------------------------------------------------------
(no need to switchover gtm)
[ Datanode State ]
node node_ip instance state | node node_ip instance state | node node_ip instance state
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
AZ1 1 plat1 192.168.0.11 6001 /gaussdb/data/data_dn1 P Standby Normal | 2 plat2 192.168.0.12 6002 /gaussdb/data/data_dnS1 S Primary Normal | 3 plat1 192.168.0.13 3002 /gaussdb/data/data_dnDS1 R Secondary Normal
Operation succeeded: Switch query.
若实例未发生过主备切换,则查询结果中会显示“no need to switchover xxx”。否则,则有实例发生过主备切换。例如,上例中通过查询发现有一组主备DN都发生过切换。将发生切换的实例恢复为初始配置的主备状态。
gs_om -t switch --reset --time-out=300
Operating: Switch reset.
cm_ctl: cmserver is rebalancing the cluster automatically.
......
cm_ctl: switchover successfully.
Operation succeeded: Switch reset.
如果重置实例状态失败,请根据日志文件中的日志信息排查错误。
如果指定的超时时间到达后,仍然有某些实例没有完成状态切换,可以根据提示,执行3查看切换实例的当前状态,然后设置更长的时间再次执行或者通过log查看切换失败的原因。重置操作的默认超时时间为300s。
集群部署多个CN同时对外提供服务,CN的角色是对等的,即执行DML语句时连接到任何一个CN都可以得到一致的结果。而DDL语句需要在所有CN上都执行完成,以保持数据库对象定义一致。如果其中一个CN发生故障,整个集群将无法执行DDL语句,直到故障CN被修复或剔除。
如果只有CN异常,使用gs_replace工具可以快速将故障CN替换为正常CN。具体请参见修复故障实例。
如果因网络无法连接、硬件故障造成操作系统无法登录等,短时间内无法恢复CN,又希望集群尽快恢复DDL执行能力,可以先手动删除故障CN。待DDL业务完成后,再通过增加CN功能将CN加回。
GaussDB Kernel也提供了CN自动剔除功能,此功能默认开启,开启和关闭方式请参见自动剔除故障CN。通过设置coordinator_heartbeat_timeout为具体的时间值,则CN故障超过此时间值后GaussDB Kernel将自动剔除故障CN。
多AZ多集群部署结构下:
在集群运行过程中,CN发生故障后,整个集群将无法执行DDL操作。因此,如果CN发生故障且无法快速修复时,可以使用gs_om中的managecn把故障CN从数据库集群中删掉,从而使集群可以快速恢复正常工作。
如果所登录的主机因网络或操作系统等故障无法登录,请更换为登录另一集群主机。
请将要删除CN对应主机上的cooNum值从1改为0。
<!-- cn -->
<PARAM name="cooNum" value="0"/>
<PARAM name="cooPortBase" value="8000"/>
<PARAM name="cooDir1" value="/gaussdb/data/coordinator"/>
gs_om -t managecn -m delete -X /opt/software/GaussDB_Kernel/clusterconfig.xml
gs_om -t managecn -m delete -X /opt/software/GaussDB_Kernel/clusterconfig.xml
Checking the cluster configuration difference.
Successfully checked the cluster configuration difference.
Checking the cluster status.
Successfully checked the cluster status.
Distributing the XML configuration file to all nodes.
Successfully distributed the XML configuration file.
Creating backup directory.
Successfully created backup directory.
Backing up cluster configuration.
Successfully backed up cluster configuration.
Modifying static configuration files.
Static configuration file's modification is completed.
Locking cluster.
Successfully locked cluster.
Dropping pgxc_node catalog.
Successfully dropped pgxc_node catalog.
Configuring pg_hba on all nodes.
Unlocking cluster.
Successfully unlock cluster.
Waiting for cluster status to become Normal or Degraded.
.
The cluster status is Normal.
Deleting the CN instance.
Successfully cleaned CN instance.
gs_om -t managecn -m delete -X /opt/software/GaussDB_Kernel/clusterconfig.xml
Checking the cluster configuration difference.
Successfully checked the cluster configuration difference.
Warning: Failed to connect to the node SIA1000022048.
Checking the cluster status.
Successfully checked the cluster status.
Distributing the XML configuration file to all nodes.
Successfully distributed the XML configuration file.
Creating backup directory.
Successfully created backup directory.
Backing up cluster configuration.
Successfully backed up cluster configuration.
Modifying static configuration files.
Static configuration file's modification is completed.
Locking cluster.
Successfully locked cluster.
Dropping pgxc_node catalog.
Successfully dropped pgxc_node catalog.
Configuring pg_hba on all nodes.
Successfully configured pg_hba on all nodes.
Unlocking cluster.
Successfully unlock cluster.
Waiting for cluster status to become Normal or Degraded.
...........
The cluster status is Degraded.
Manage CN is completed.
如果执行完删除节点SIA1000022048的CN后,该节点又从故障中恢复,此时该节点上记录的集群信息为删除CN前的,造成该节点与真实的集群信息不相同,因此需要对该节点执行如下操作,以保障集群信息的统一。
调用gs_om -t generateconf -X /opt/software/GaussDB_Kernel/clusterconfig.xml ,用最新的集群配置文件重新生成各节点的静态配置文件,并覆盖此节点上的静态配置文件。
调用gs_om -t stop -h SIA1000022048和gs_om -t start -h SIA1000022048对该节点进行重启,使得新的集群配置信息生效。
手动删除节点SIA1000022048上的CN数据目录(选做)。
当集群中的CN数量无法承载业务运行压力时,可以通过gs_om的managecn功能给集群增加CN。同时,如果CN因故障被删除后,可以使用增加CN功能将其加回。
在已有主机上新增CN,请将要增加CN对应主机上的cooNum值从0改为1。
<!-- cn -->
<PARAM name="cooNum" value="1"/>
<PARAM name="cooPortBase" value="8000"/>
<PARAM name="cooDir1" value="/gaussdb/data/coordinator"/>
在新增主机上增加CN,要求该主机上只能配有CN,不能包含DN、GTM、CM Server及ETCD。如下以增加集群外的主机SIA1000056772上的CN为例:
<!-- SIA1000056772的实例部署信息 -->
<DEVICE sn="1000002">
<PARAM name="name" value="SIA1000056772"/>
<PARAM name="backIp1" value="10.180.122.136"/>
<PARAM name="sshIp1" value="10.180.122.136"/>
<!--cmserver-->
<PARAM name="cmsNum" value="0"/>
<PARAM name="cmServerPortBase" value="28601"/>
<PARAM name="cmServerPortStandby" value="28611"/>
<PARAM name="cmServerlevel" value="1"/>
<PARAM name="cmDir" value=" /data_rt/bigcluster_rt/cmserver"/>
<PARAM name="cmServerRelation" value="SIA1000056772,SIA1000056672"/>
<!-- cn -->
<PARAM name="cooNum" value="1"/>
<PARAM name="cooPortBase" value="8000"/>
<PARAM name="cooDir1" value="/gaussdb/data/coordinator"/>
<!-- gtm -->
<PARAM name="gtmNum" value="0"/>
<PARAM name="gtmPortBase" value="6000"/>
<PARAM name="gtmPortStandby" value="6500"/>
<PARAM name="gtmDir1" value="/data_rt/bigcluster_rt/gtm,SIA1000056672,/data_rt/bigcluster_rt/gtm"/>
<PARAM name="gtmRelation" value="SIA1000056772,SIA1000056672"/>
</DEVICE>
./gs_preinstall -U -G dbgrp -L -X /opt/software/GaussDB_Kernel/clusterconfig.xml --alarm-type=5
gs_om -t managecn -m add -X /opt/software/GaussDB_Kernel/clusterconfig.xml
前提条件:在xml中配置好需要增加的CN信息,执行前置命令。
gs_om -t managecn -m add -X /opt/software/GaussDB_Kernel/clusterconfig.xml
Checking the cluster configuration difference.
Successfully checked the cluster configuration difference.
Checking the cluster status.
Successfully checked the cluster status.
Distributing the XML configuration file to all nodes.
Successfully distributed the XML configuration file.
Creating backup directory.
Successfully created backup directory.
Backing up cluster configuration.
Successfully backed up cluster configuration.
Modifying static configuration files.
Static configuration file's modification is completed.
Locking cluster.
Successfully locked cluster.
Building CN instance.
Successfully built CN instance.
Creating pgxc_node catalog.
Successfully created pgxc_node catalog.
Configuring pg_hba on all nodes.
Unlocking cluster.
Successfully unlock cluster.
Waiting for cluster status to become Normal or Degraded.
.
The cluster status is Normal.
gs_om -t managecn -m add -X /opt/software/GaussDB_Kernel/clusterconfig.xml
Checking the cluster configuration difference.
Successfully checked the cluster configuration difference.
Checking the cluster status.
Successfully checked the cluster status.
Distributing the XML configuration file to all nodes.
Successfully distributed the XML configuration file.
Creating backup directory.
Successfully created backup directory.
Installing GaussDB Kernel on the new node.
Checking installation environment on this node (SIA1000062209).
Installing applications on this node (SIA1000062209).
Synchronizing libcgroup configuration to this node (SIA1000062209).
Successfully installed GaussDB Kernel on the new node.
Backing up cluster configuration.
Successfully backed up cluster configuration.
Modifying static configuration files.
Static configuration file's modification is completed.
Locking cluster.
Successfully locked cluster.
Building CN instance.
Successfully built CN instance.
Creating pgxc_node catalog.
Successfully created pgxc_node catalog.
Configuring pg_hba on all nodes.
Unlocking cluster.
Successfully unlock cluster.
Waiting for cluster status to become Normal or Degraded.
.
The cluster status is Normal.
自动剔除故障CN功能默认开启。
在单机部署场景下,自动剔除CN功能不生效,无需执行本节操作。
无。
开启自动剔除故障CN功能,即CN故障后,自动剔除故障的CN。
gs_guc set -Z cmserver -N all -I all -c "coordinator_heartbeat_timeout=25"
关闭自动剔除故障CN功能,即CN故障后,不剔除故障的CN。
gs_guc set -Z cmserver -N all -I all -c "coordinator_heartbeat_timeout=0"
CN故障时,除了自动剔除还可以对CN进行手动剔除。在单机部署场景下,手动剔除CN功能不生效,无需执行本节操作。
执行如下命令进行手动剔除故障CN:
cm_ctl disable -n node_id -D data_path
node_id为CN所在节点的ID,data_path为CN的数据目录路径,可通过cm_ctl query -Cvd查询。
CN故障被剔除后(状态显示为Deleted),数据库支持自动修复方式和手动修复方式修复被剔除的CN。本小节说明手动修复方式,即手动执行实例替换命令。
在单机部署场景下,手动修复CN功能不生效,无需执行本节操作。
下述两条命令需要关联一起执行,若只执行gs_replace -t config -h而未执行gs_replace -t start -h则可能影响集群功能,导致后续使用自动修复方式时功能不可用。
执行如下命令,对需要替换实例的主机进行配置操作。配置操作会清理替换实例的空间,初始化替换实例,配置替换实例。
gs_replace -t config -h hostname
执行如下命令,对需要修复实例的主机进行启动操作。
gs_replace -t start -h hostname
数据库集群是由多台主机组成的,当集群中主机上的某些实例发生故障后,为了使GaussDB Kernel快速地恢复正常,用户可以使用gs_replace工具将发生故障的实例替换为正常实例。
以替换主机plat1、plat2上的实例为例。
操作系统用户omm登录的主机为非故障主机。
(if [ -f $PGHOST/GaussReplace.dat ];then rm $PGHOST/GaussReplace.dat;fi)
该文件为替换故障实例、替换主机中产生的用于记录执行步骤的临时文件,如果在上次执行过程中出现宕机或网卡中断等,可能会导致该文件残留。在替换故障实例前检查该文件是否存在,且生成时间非本次替换故障实例的时间,则可判断为上次执行的残留文件,删除该文件后,继续执行替换故障实例。
gs_replace -t config -h plat1, plat2
配置操作会清理替换实例的空间,初始化替换实例,配置替换实例。
如果收到提示:“GAUSS_50201: The XXX does not exist.”,则请检查对应的实例数据目录是否存在。如果不存在,请重新创建目录后再次执行上述命令。
如果指定主机的表空间所在磁盘出现故障,从而导致表空间中的数据损坏,更换新磁盘后,需要指定--force参数对该主机强制进行表空间数据的恢复。如果在config阶段指定--force参数,则在start阶段也必须指定--force参数。
gs_replace -t start -h plat1 , plat2
启动操作会启动集群替换实例的主机。
switch为维护操作:确保集群状态正常,所有业务结束,并使用pgxc_get_senders_catchup_time()视图查询无主备追赶后,再进行switch操作。
gs_om -t switch --reset
重置过程会恢复集群初始状态,以保证各主机的负载都是均衡的。
gs_om -t status
在集群DN增量build过程中,会先删除部分数据,如果原主损坏,那么主备均损坏。为了集群快速恢复正常,需要手动进行文件替换,然后恢复集群,使集群能够正常运行。
pg_rewind_bak目录为增量build时备机的文件备份目录,不能被手动修改。
cm_ctl query -Cvd
例如在一个含3个CN和12个DN的主备从集群中,
CN :
node instance state
-----------------------------------------------------
1 lfgp000710736 5001 /data1/mpp/coordinator1 Normal
2 lfgp000710735 5002 /data1/mpp/coordinator2 Normal
3 lfgp000710734 5003 /data1/mpp/coordinator3 Normal
故障DN :
3 lfgp000710734 6017 /data1/mpp/data1/master09 P Down Disk damaged | 1 lfgp000710736 6018 /data1/mpp/data1/slave09 S Down Unknown | 2 lfgp000710735 3010 /data1/mpp/data1/dummy09 R Secondary Normal
执行以下命令停止所有CN和故障的dn主备从。
cm_ctl stop -n nodenumber -D CN所在目录
cm_ctl stop -n nodenumber -D DN所在目录
其中,nodenumber,CN所在目录,DN所在目录可由1获取。例如,
cm_ctl stop -n 1 -D /data1/mpp/coordinator1
cm_ctl stop -n 2 -D /data1/mpp/coordinator2
cm_ctl stop -n 3 -D /data1/mpp/coordinator3
cm_ctl stop -n 1 -D /data1/mpp/data1/slave09
cm_ctl stop -n 2 -D /data1/mpp/data1/dummy09
执行restore操作,需要登录到故障的机器上。
gs_ctl restore -D /data1/mpp/data1/slave09
cm_ctl start方式启动故障结点。
cm_ctl start -n 1 -D /data1/mpp/data1/slave09/ #先变成Standby Need repair(Disconnected),然后是Standby Promoting,这时候起来从备
启动从备:
cm_ctl start -n 2 -D /data1/mpp/data1/dummy09
备机升主成功。
启动原主机:
cm_ctl start -n 3 -D /data1/mpp/data1/master09
原主机启动成功后降为备机。
启动CN结点,恢复业务:
cm_ctl start -n 1 -D /data1/mpp/coordinator1
cm_ctl start -n 2 -D /data1/mpp/coordinator2
cm_ctl start -n 3 -D /data1/mpp/coordinator3
检查结点状态是否恢复正常:
cm_ctl query –Cvd
数据校验。
启动业务。
在数据验证完成后,启动业务。
在数据库集群使用过程中,由于网络部署调整、机房搬迁、网络故障等带来主机IP地址和端口号的变更。GaussDB Kernel提供了gs_om的changeip操作可以在不换主机、不改变集群其他配置的前提下,快速实现集群IP地址、主机名或者端口号的变更。
cd /opt/software/GaussDB_Kernel/script
./gs_preinstall -U omm -G dbgrp -X ../clusterconfig.xml --alarm-type=5
omm为运行集群的操作系统用户,dbgrp为操作系统用户的群组名称,clusterconfig.xml为集群配置文件,此示例中假设其存储在安装包存放路径下。
su - omm
gs_om -t changeip -X clusterconfig.xml
clusterconfig.xml为修改后的配置文件。
如果执行修改集群IP过程中出现错误,系统调用自动回滚。如果自动回滚过程中,因为磁盘满等原因,导致回滚失败,则用户排除错误后,如需继续执行修改IP则调用本命令,如果要放弃修改IP,则调用如下命令将集群恢复到修改ip之前的状态:
gs_om -t changeip -X clusterconfig.xml --rollback
集群的IP和端口号都需要使用gs_om工具进行修改。
表1 允许修改参数列表 | |||
实例类型 |
参数 |
说明 |
是否通过工具修改 |
集群主机信息(所有实例共用信息) |
name |
主机的hostname。 |
是 |
backIp1 |
主机在后端存储网络中的IP地址(内网IP)。所有GaussDB Kernel主机使用后端存储网络通讯。 |
是 | |
sshIp1 |
设置SSH可信通道IP地址(外网IP)。若无外网,则可以不设置该选项或者同backIp1设置相同IP。 |
是 | |
sqlExpandNames |
用于扩容时,增加所有新增主机的hostname。 |
否 | |
clusterRings |
用于缩容时,显示集群所有的环信息,集群环之间以分号“;”间隔,环内实例间以“,”间隔。 |
否 | |
virtualIp |
当前主机上配置的虚拟IP。可配置多个虚拟IP,每个虚拟IP使用“,”间隔。 |
是 | |
CM (cmDir参数需要在所有主机上配置,其他参数只需要在一个CM Server上配置。) |
cmsNum |
当前主机上需要部署CM Server的个数。 |
否 |
cmServerPortBase |
主CM Server端口号,默认值5000。 |
是 | |
cmServerPortStandby |
备CM Server端口号,默认值5500。 说明: 修改该端口时,需要修改备实例上的“cmServerPortStandby”的value值。 |
是 | |
cmServerListenIp1 |
CM Server用于侦听CM Agent连接请求或DBA集群管理请求的IP地址。 Value中左边IP为主CM Server侦听请求的IP地址,右边IP为备CM Server侦听请求的IP地址。未设置时,默认根据主、备CM Server所在主机的backIp生成。 |
是 | |
cmServerHaIp1 |
主、备CM Server间通信的IP地址。 Value中左边为主CM Server的主机IP地址,右边为备CM Server的主机IP地址。未设置时,默认根据主、备CM Server所在主机的backIp生成。 |
是 | |
cmServerlevel |
采用多层CM Server时,用于设置CM Server属于哪一层级。目前只支持1级Server,值为1。 |
否 | |
cmServerRelation |
指定CM Server主备所部署的两台主机。CM Server主备关系由GaussDB Kernel仲裁确定。 |
否 | |
cmDir |
CM数据文件路径。保存CM Server和CM Agent用到的数据文件,参数文件等。 各主机上均需配置该参数。 |
否 | |
GTM (所有参数只需要在主GTM上配置。) |
gtmNum |
当前主机上需要部署的主GTM个数。 |
否 |
gtmPortBase |
主GTM端口号,默认值6000。 |
是 | |
gtmPortStandby |
备GTM端口号,默认值6500。 说明: 修改该端口时,需要修改备实例上的“gtmPortStandby”的value值。 |
是 | |
gtmListenIp1 |
GTM用于侦听CN和DN连接请求的IP地址。 Value中左边IP为主GTM侦听请求的IP地址,右边IP为备GTM侦听请求的IP地址。未设置时,默认根据主、备GTM所在主机的backIp生成。 |
是 | |
gtmHaIp1 |
主、备GTM间通信的IP地址。 Value中左边IP为主GTM端的IP地址,右边IP为备GTM端的IP地址。未设置时,默认根据主、备GTM所在主机的backIp生成。 |
是 | |
gtmDir1 |
主、备GTM数据目录信息。 信息间使用逗号分隔,每部分信息分别表示:
|
否 | |
gtmRelation |
用于设置GTM的主备关系。 Value中填写主机名称,第一个为主GTM所在的主机名称。 |
否 | |
CN(所有参数只在CN上配置。) |
cooNum |
当前主机上需要部署的CN个数。目前一个主机只支持设置最多一个CN,如果主机上不部署CN,则配置文件中无需设置CN相关参数。 |
否 |
cooPortBase |
CN端口号,默认值8000。 |
是 | |
cooListenIp1 |
用于侦听连接请求的IP地址,既可以接受集群内部DN和其它CN的连接,也可以接受来自集群外部的连接。 cooListenIp需要至少配置一组内网IP和一组外网IP,且主机的内网IP必须配为第一组。示例如下: <PARAM name="cooListenIp1" value="192.168.0.13"/> <PARAM name="cooListenIp2" value="10.10.0.13"/> 未设置时,使用当前主机的backIp生成。 这里配置了两组cooListenIp,则cooListenIp1必须配成机器的内网IP。 |
是 | |
cooDir1 |
用于指定CN的数据目录。 |
否 | |
DN |
dataNum |
当前主机上需要部署的主DN个数。如果主机上不部署DN,则配置文件中无需设置DN相关参数。如果主机上不部署主DN但有备DN,则该字段设置为0。 说明: 如果当前主机上只有备DN而没有主DN,则该字段设置为0,并且需要设置备DN的端口号dataPortStandby,否则备DN的端口号会被设置为默认值。 |
否 |
dataPortBase |
主DN的基础端口号。默认值40000。 当主机上有多个主DN时,其他DN的端口号在此基础上自动+2递增。 |
是 | |
dataPortStandby |
备DN基础端口号,默认值45000。 当主机上有多个备DN时,其他DN的端口号在此基础上自动+2递增。 |
是 | |
dataListenIp1 |
侦听的IP地址,用于接受其他DN和CN的连接。未设置时,使用对应主机上的backIp1生成。 第一个IP是主DN所在主机的IP,第二个IP是备DN所在主机的IP。可配置成虚拟IP。 |
是 | |
dataHaIp1 |
主、备DN通信的IP地址。未设置时,使用对应主机的backIp生成。 value中需设置主、备DN的IP地址。 |
是 | |
dataNode1 |
用于指定当前主机上的主DN及其备DN的信息。编号从1开始。每一个DN的信息,使用逗号分隔,每部分信息分别表示:
|
否 | |
ETCD(为可选组件,如果确认要配置,所有参数只在需要配置的主机上写入。集群中配置ETCD的个数为3到7,建议为奇数个,最大不能超过7,建议为3) |
etcdNum |
当前主机上需要部署的ETCD个数。目前一个主机只支持设置最多1个ETCD,如果当前主机上不部署ETCD,则配置文件中无需设置ETCD相关参数,或者将此参数设置为0。示例如下: <PARAM name="etcdNum" value="1"/> |
否 |
etcdListenPort |
侦听端口,默认端口2379,示例如下: <PARAM name="etcdListenPort" value="18300"/> |
是 | |
etcdHaPort |
如果未配置,默认端口2380,示例如下: <PARAM name="etcdHaPort" value="18500"/> |
是 | |
etcdListenIp1 |
侦听IP,如果不配置默认取backIP,示例如下: <PARAM name="etcdListenIp1" value="10.145.130.22"/> |
是 | |
etcdHaIp1 |
如果不配置默认取backIp,示例如下: <PARAM name="etcdHaIp1" value="10.145.130.22"/> |
是 | |
etcdDir1 |
ETCD配置路径,示例如下: <PARAM name="etcdDir1" value="/gaussdb/data/data_etcd" /> |
否 |