oracle11g RAC环境:节点数据不同步

Snail_cz 2020-08-14 10:51:37
oracle11g RAC环境centos7.3
每个节点都可以启动集群,但是相互之间看不到对方的状态:
1.rac1:

[grid@rac1 ~]$ srvctl status nodeapps
VIP rac1-vip 已启用
VIP rac1-vip 未运行
VIP rac2-vip 已启用
VIP rac2-vip 正在节点上运行: rac1
网络已启用
网络正在节点上运行: rac1
网络未在节点上运行: rac2
GSD 已禁用
GSD 没有运行的节点: rac1
GSD 没有运行的节点: rac2
ONS 已启用
ONS 守护程序正在节点上运行:rac1
ONS 守护程序未在节点上运行:rac2
eONS 已启用
eONS 守护程序正在节点上运行:rac1
eONS 守护程序未在节点上运行:rac2
[grid@rac1 ~]$ crsctl status resource -t
--------------------------------------------------------------------------------
NAME TARGET STATE SERVER STATE_DETAILS
--------------------------------------------------------------------------------
Local Resources
--------------------------------------------------------------------------------
ora.DATA.dg
ONLINE ONLINE rac1
ora.FRA.dg
ONLINE ONLINE rac1
ora.LISTENER.lsnr
ONLINE ONLINE rac1
ora.OCR.dg
ONLINE ONLINE rac1
ora.asm
ONLINE ONLINE rac1 Started
ora.eons
ONLINE ONLINE rac1
ora.gsd
OFFLINE OFFLINE rac1
ora.net1.network
ONLINE ONLINE rac1
ora.ons
ONLINE ONLINE rac1
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.LISTENER_SCAN1.lsnr
1 ONLINE ONLINE rac1
ora.oc4j
1 OFFLINE OFFLINE
ora.orcl.db
1 OFFLINE OFFLINE
2 OFFLINE OFFLINE
ora.rac1.vip
1 OFFLINE OFFLINE
ora.rac2.vip
1 ONLINE INTERMEDIATE rac1 FAILED OVER
ora.scan1.vip
1 ONLINE ONLINE rac1



2.rac2上:

[grid@rac2 ~]$ crsctl status resource -t
--------------------------------------------------------------------------------
NAME TARGET STATE SERVER STATE_DETAILS
--------------------------------------------------------------------------------
Local Resources
--------------------------------------------------------------------------------
ora.DATA.dg
OFFLINE OFFLINE rac2
ora.FRA.dg
OFFLINE OFFLINE rac2
ora.LISTENER.lsnr
ONLINE ONLINE rac2
ora.OCR.dg
ONLINE ONLINE rac2
ora.asm
ONLINE ONLINE rac2 Started
ora.eons
ONLINE ONLINE rac2
ora.gsd
OFFLINE OFFLINE rac2
ora.net1.network
ONLINE ONLINE rac2
ora.ons
ONLINE ONLINE rac2
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.LISTENER_SCAN1.lsnr
1 ONLINE ONLINE rac2
ora.oc4j
1 OFFLINE OFFLINE
ora.orcl.db
1 OFFLINE OFFLINE
2 OFFLINE OFFLINE
ora.rac1.vip
1 ONLINE OFFLINE
ora.rac2.vip
1 ONLINE OFFLINE
ora.scan1.vip
1 ONLINE ONLINE rac2
[grid@rac2 ~]$ srvctl status nodeapps
VIP rac1-vip 已启用
VIP rac1-vip 未运行
VIP rac2-vip 已启用
VIP rac2-vip 未运行
网络已启用
网络未在节点上运行: rac1
网络正在节点上运行: rac2
GSD 已禁用
GSD 没有运行的节点: rac1
GSD 没有运行的节点: rac2
ONS 已启用
ONS 守护程序未在节点上运行:rac1
ONS 守护程序正在节点上运行:rac2
eONS 已启用
eONS 守护程序未在节点上运行:rac1
eONS 守护程序正在节点上运行:rac2
[grid@rac2 ~]$




只看到vip漂移了。。。
刚接触rac环境,不太懂,单独启动每个节点的数据库也能启动了,但是rac1的数据和rac2的数据不同步的。怎么能恢复呢。。。
...全文
528 20 打赏 收藏 转发到动态 举报
写回复
用AI写文章
20 条回复
切换为时间正序
请发表友善的回复…
发表回复
Snail_cz 2020-08-26
  • 打赏
  • 举报
回复
好吧,多谢你的回复,暂时先不管这个了,问题还是那样,ip是都可以ping通的,pub和priv。
lhdz_bj 2020-08-21
  • 打赏
  • 举报
回复
引用 16 楼 Snail_cz 的回复:
[quote=引用 13 楼 lhdz_bj 的回复:][quote=引用 12 楼 Snail_cz 的回复:]问题还是没有解决,其实是vcenter server上直接装oracle11g RAC本身是没有问题的,是为了方便想直接克隆出来再用的,现在问题就是克隆的环境出现的,是不是与克隆有关?


你的意思是原来的RAC没问题,这个有问题的RAC是新客隆出来的?+[/quote]

是的原来的环境启停服务都是可以的,克隆出来就是这样的,死活两边无法看得到,都是各看各的没问题[/quote]

1、通过克隆虚机这个我之前弄过,但你得解决两个问题;
2、第一个问题就是共享存储问题,如果原来的rac不用了,那个没问题,但创建diskgroup时需要初始化之前的disk;如果原来的rac还在用,两个rac公用一套lun,那肯定不可以的,但从你反馈的信息看,共享存储似乎没问题。
3、另一个问题就是网络,就是虚机的网卡和IP的问题,那得你自己具体看看了,公网和私网IP都要看。
Snail_cz 2020-08-21
  • 打赏
  • 举报
回复
引用 14 楼 好记忆不如烂笔头abc 的回复:
[quote=引用 9 楼 Snail_cz 的回复:]记得执行时有个报错:ADVM/ACFS is not supported on centos-release-7-3.1611.el7.centos.x86_64
这个直接忽略了,用的办法是:[root@rac1 ~]# /bin/dd if=/var/tmp/.oracle/npohasd of=/dev/null bs=1024 count=1
然后root.sh执行成功,别的记录也没有了

和advm没关系,关键是你节点2的root.sh完整输出记录是可以看出问题的,有的话把完整输出结果贴出来,我猜测就是类似节点1的结果,表决盘等都重新初始化了的过程,这样是不对的。
后边看到你克隆的情况,应该是共享盘不对。[/quote]

那通过虚拟机克隆再生RAC环境这个思路对不对?行的通吗?或者有没有指导材料啥的?感谢
Snail_cz 2020-08-21
  • 打赏
  • 举报
回复

引用 13 楼 lhdz_bj 的回复:
[quote=引用 12 楼 Snail_cz 的回复:]问题还是没有解决,其实是vcenter server上直接装oracle11g RAC本身是没有问题的,是为了方便想直接克隆出来再用的,现在问题就是克隆的环境出现的,是不是与克隆有关?


你的意思是原来的RAC没问题,这个有问题的RAC是新客隆出来的?+[/quote]

是的原来的环境启停服务都是可以的,克隆出来就是这样的,死活两边无法看得到,都是各看各的没问题
lhdz_bj 2020-08-21
  • 打赏
  • 举报
回复
引用 19 楼 Snail_cz 的回复:
[quote=引用 18 楼 lhdz_bj 的回复:][quote=引用 16 楼 Snail_cz 的回复:]
[quote=引用 13 楼 lhdz_bj 的回复:][quote=引用 12 楼 Snail_cz 的回复:]问题还是没有解决,其实是vcenter server上直接装oracle11g RAC本身是没有问题的,是为了方便想直接克隆出来再用的,现在问题就是克隆的环境出现的,是不是与克隆有关?


你的意思是原来的RAC没问题,这个有问题的RAC是新客隆出来的?+[/quote]

是的原来的环境启停服务都是可以的,克隆出来就是这样的,死活两边无法看得到,都是各看各的没问题[/quote]

1、通过克隆虚机这个我之前弄过,但你得解决两个问题;
2、第一个问题就是共享存储问题,如果原来的rac不用了,那个没问题,但创建diskgroup时需要初始化之前的disk;如果原来的rac还在用,两个rac公用一套lun,那肯定不可以的,但从你反馈的信息看,共享存储似乎没问题。
3、另一个问题就是网络,就是虚机的网卡和IP的问题,那得你自己具体看看了,公网和私网IP都要看。[/quote]

1.共享存储应该是没有问题的,都是虚拟出来的磁盘,磁盘类型和源环境是一样的。
2.网络问题我觉得应该是这个。但是反复确认过克隆的环境和源环境是一模一样的,并且源环境是关闭状态,没有再启用的。有没有参考资料啥的?我是翻遍了网站还是没有解决这个问题[/quote]

1、我不清楚你的共享存储怎么实现的,所以,不是很确定是否有问题;
2、网络的问题,还是看看节点间连通情况,IP网段等方面吧,时间久了,有点记不清了,反正记得当时挺麻烦的。
Snail_cz 2020-08-21
  • 打赏
  • 举报
回复
引用 18 楼 lhdz_bj 的回复:
[quote=引用 16 楼 Snail_cz 的回复:]
[quote=引用 13 楼 lhdz_bj 的回复:][quote=引用 12 楼 Snail_cz 的回复:]问题还是没有解决,其实是vcenter server上直接装oracle11g RAC本身是没有问题的,是为了方便想直接克隆出来再用的,现在问题就是克隆的环境出现的,是不是与克隆有关?


你的意思是原来的RAC没问题,这个有问题的RAC是新客隆出来的?+[/quote]

是的原来的环境启停服务都是可以的,克隆出来就是这样的,死活两边无法看得到,都是各看各的没问题[/quote]

1、通过克隆虚机这个我之前弄过,但你得解决两个问题;
2、第一个问题就是共享存储问题,如果原来的rac不用了,那个没问题,但创建diskgroup时需要初始化之前的disk;如果原来的rac还在用,两个rac公用一套lun,那肯定不可以的,但从你反馈的信息看,共享存储似乎没问题。
3、另一个问题就是网络,就是虚机的网卡和IP的问题,那得你自己具体看看了,公网和私网IP都要看。[/quote]

1.共享存储应该是没有问题的,都是虚拟出来的磁盘,磁盘类型和源环境是一样的。
2.网络问题我觉得应该是这个。但是反复确认过克隆的环境和源环境是一模一样的,并且源环境是关闭状态,没有再启用的。有没有参考资料啥的?我是翻遍了网站还是没有解决这个问题
  • 打赏
  • 举报
回复
引用 9 楼 Snail_cz 的回复:
记得执行时有个报错:ADVM/ACFS is not supported on centos-release-7-3.1611.el7.centos.x86_64 这个直接忽略了,用的办法是:[root@rac1 ~]# /bin/dd if=/var/tmp/.oracle/npohasd of=/dev/null bs=1024 count=1 然后root.sh执行成功,别的记录也没有了
和advm没关系,关键是你节点2的root.sh完整输出记录是可以看出问题的,有的话把完整输出结果贴出来,我猜测就是类似节点1的结果,表决盘等都重新初始化了的过程,这样是不对的。 后边看到你克隆的情况,应该是共享盘不对。
lhdz_bj 2020-08-20
  • 打赏
  • 举报
回复
客隆RAC会出现诸多问题,除了共享盘,还有网络等问题。对他来说,排查这两块,还不如从头重装呢。
lhdz_bj 2020-08-19
  • 打赏
  • 举报
回复
引用 12 楼 Snail_cz 的回复:
问题还是没有解决,其实是vcenter server上直接装oracle11g RAC本身是没有问题的,是为了方便想直接克隆出来再用的,现在问题就是克隆的环境出现的,是不是与克隆有关?


你的意思是原来的RAC没问题,这个有问题的RAC是新客隆出来的?+
Snail_cz 2020-08-19
  • 打赏
  • 举报
回复
问题还是没有解决,其实是vcenter server上直接装oracle11g RAC本身是没有问题的,是为了方便想直接克隆出来再用的,现在问题就是克隆的环境出现的,是不是与克隆有关?
lhdz_bj 2020-08-19
  • 打赏
  • 举报
回复
引用 9 楼 Snail_cz 的回复:
记得执行时有个报错:ADVM/ACFS is not supported on centos-release-7-3.1611.el7.centos.x86_64
这个直接忽略了,用的办法是:[root@rac1 ~]# /bin/dd if=/var/tmp/.oracle/npohasd of=/dev/null bs=1024 count=1
然后root.sh执行成功,别的记录也没有了


这个报错应该不是问题原因,应该是楼主的rac安装配置的有问题,建议找个靠谱的安装文档重新安装rac,这个比较繁琐,不能着急,一步步来,不要放过或忽略报错信息。否则,安装完成后有问题,对一个新手来说排查起来比较麻烦和困难。
Snail_cz 2020-08-18
  • 打赏
  • 举报
回复
都执行了,还重启了下,现在是服务都看看着好着,但是还是相互看不到:
rac1:

[root@rac1 bin]# ./crsctl stat res -t
--------------------------------------------------------------------------------
NAME TARGET STATE SERVER STATE_DETAILS
--------------------------------------------------------------------------------
Local Resources
--------------------------------------------------------------------------------
ora.DATA.dg
ONLINE ONLINE rac1
ora.FRA.dg
ONLINE ONLINE rac1
ora.LISTENER.lsnr
ONLINE ONLINE rac1
ora.OCR.dg
ONLINE ONLINE rac1
ora.asm
ONLINE ONLINE rac1 Started
ora.eons
ONLINE ONLINE rac1
ora.gsd
OFFLINE OFFLINE rac1
ora.net1.network
ONLINE ONLINE rac1
ora.ons
ONLINE ONLINE rac1
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.LISTENER_SCAN1.lsnr
1 ONLINE OFFLINE
ora.oc4j
1 OFFLINE OFFLINE
ora.orcl.db
1 ONLINE ONLINE rac1 Open
2 OFFLINE OFFLINE
ora.rac1.vip
1 ONLINE ONLINE rac1
ora.rac2.vip
1 ONLINE OFFLINE
ora.scan1.vip
1 ONLINE OFFLINE
[root@rac1 bin]#
[root@rac1 bin]#
[root@rac1 bin]#
[root@rac1 bin]#
[root@rac1 bin]# ./srvctl status asm
ASM 正在 rac1 上运行
[root@rac1 bin]# ./srvctl status database -d orcl
实例 orcl1 正在节点 rac1 上运行
实例 orcl2 没有在 rac2 节点上运行
[root@rac1 bin]#



RAC2:

[root@rac2 bin]# ./crsctl stat res -t
--------------------------------------------------------------------------------
NAME TARGET STATE SERVER STATE_DETAILS
--------------------------------------------------------------------------------
Local Resources
--------------------------------------------------------------------------------
ora.DATA.dg
ONLINE ONLINE rac2
ora.FRA.dg
ONLINE ONLINE rac2
ora.LISTENER.lsnr
ONLINE ONLINE rac2
ora.OCR.dg
ONLINE ONLINE rac2
ora.asm
ONLINE ONLINE rac2 Started
ora.eons
ONLINE ONLINE rac2
ora.gsd
OFFLINE OFFLINE rac2
ora.net1.network
ONLINE ONLINE rac2
ora.ons
ONLINE ONLINE rac2
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.LISTENER_SCAN1.lsnr
1 ONLINE ONLINE rac2
ora.oc4j
1 OFFLINE OFFLINE
ora.orcl.db
1 OFFLINE OFFLINE
2 ONLINE ONLINE rac2 Open
ora.rac1.vip
1 OFFLINE OFFLINE
ora.rac2.vip
1 ONLINE ONLINE rac2
ora.scan1.vip
1 ONLINE ONLINE rac2
[root@rac2 bin]# ./srvctl status asm
ASM 正在 rac2 上运行
[root@rac2 bin]# ./srvctl status database -d orcl
实例 orcl1 没有在 rac1 节点上运行
实例 orcl2 正在节点 rac2 上运行
[root@rac2 bin]#



ORACLE小白,麻烦大佬再指点下,实在vcenter上搭建的环境是cnetos7.3。。。
lhdz_bj 2020-08-18
  • 打赏
  • 举报
回复
引用 4 楼 Snail_cz的回复:
你好,crsctl enable crs和./crsctl start cluster -all执行都是可以的,集群对方已经启动了,但是查看状态,还是有问题的:
rac1:
[root@rac1 bin]# ./crsctl stat res -t
--------------------------------------------------------------------------------
NAME TARGET STATE SERVER STATE_DETAILS
--------------------------------------------------------------------------------
Local Resources
--------------------------------------------------------------------------------
ora.DATA.dg
ONLINE OFFLINE rac1
ora.FRA.dg
ONLINE OFFLINE rac1
ora.LISTENER.lsnr
ONLINE ONLINE rac1
ora.OCR.dg
ONLINE ONLINE rac1
ora.asm
ONLINE ONLINE rac1 Started
ora.eons
ONLINE ONLINE rac1
ora.gsd
OFFLINE OFFLINE rac1
ora.net1.network
ONLINE ONLINE rac1
ora.ons
ONLINE ONLINE rac1
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.LISTENER_SCAN1.lsnr
1 ONLINE ONLINE rac1
ora.oc4j
1 OFFLINE OFFLINE
ora.orcl.db
1 ONLINE OFFLINE
2 OFFLINE OFFLINE
ora.rac1.vip
1 ONLINE ONLINE rac1
ora.rac2.vip
1 ONLINE INTERMEDIATE rac1 FAILED OVER
ora.scan1.vip
1 ONLINE ONLINE rac1
[root@rac1 bin]# ^C
[root@rac1 bin]# ^C
节点2也执行下上面命令。
Snail_cz 2020-08-18
  • 打赏
  • 举报
回复
你好,crsctl enable crs和./crsctl start cluster -all执行都是可以的,集群对方已经启动了,但是查看状态,还是有问题的:
rac1:
[root@rac1 bin]# ./crsctl stat res -t
--------------------------------------------------------------------------------
NAME TARGET STATE SERVER STATE_DETAILS
--------------------------------------------------------------------------------
Local Resources
--------------------------------------------------------------------------------
ora.DATA.dg
ONLINE OFFLINE rac1
ora.FRA.dg
ONLINE OFFLINE rac1
ora.LISTENER.lsnr
ONLINE ONLINE rac1
ora.OCR.dg
ONLINE ONLINE rac1
ora.asm
ONLINE ONLINE rac1 Started
ora.eons
ONLINE ONLINE rac1
ora.gsd
OFFLINE OFFLINE rac1
ora.net1.network
ONLINE ONLINE rac1
ora.ons
ONLINE ONLINE rac1
--------------------------------------------------------------------------------
Cluster Resources
--------------------------------------------------------------------------------
ora.LISTENER_SCAN1.lsnr
1 ONLINE ONLINE rac1
ora.oc4j
1 OFFLINE OFFLINE
ora.orcl.db
1 ONLINE OFFLINE
2 OFFLINE OFFLINE
ora.rac1.vip
1 ONLINE ONLINE rac1
ora.rac2.vip
1 ONLINE INTERMEDIATE rac1 FAILED OVER
ora.scan1.vip
1 ONLINE ONLINE rac1
[root@rac1 bin]# ^C
[root@rac1 bin]# ^C
Snail_cz 2020-08-18
  • 打赏
  • 举报
回复
记得执行时有个报错:ADVM/ACFS is not supported on centos-release-7-3.1611.el7.centos.x86_64
这个直接忽略了,用的办法是:[root@rac1 ~]# /bin/dd if=/var/tmp/.oracle/npohasd of=/dev/null bs=1024 count=1
然后root.sh执行成功,别的记录也没有了
  • 打赏
  • 举报
回复
安装rac的时候,当初在节点2执行root.sh的记录有吗?贴出来看看就知道问题了。
lhdz_bj 2020-08-18
  • 打赏
  • 举报
回复
哦,你这是11g,crs_stat -t试试呢,可能rac有点问题。
Snail_cz 2020-08-17
  • 打赏
  • 举报
回复
好的,这个问题确实是因为服务没有启动导致的,把ora.DATA.dg和ora.FRA.dg服务单独起了下,就可以了
但是想设置为开机自启动集群,不知道为什么不生效,已经参考类似这样的命令:crsctl modify resource "ora.DATA.dg" -attr "AUTO_START=always"
设置了相关参数。



[root@rac1 bin]# ./crsctl status resource -t
CRS-4535: Cannot communicate with Cluster Ready Services
CRS-4000: Command Status failed, or completed with errors.
[root@rac1 bin]# ./srvctl status nodeapps
PRKH-1010 : 无法与 CRS 服务通信。
[Communications Error(Native: prsr_initCLSS:[3])]
[root@rac1 bin]#



是什么原因呢?麻烦指导下
lhdz_bj 2020-08-17
  • 打赏
  • 举报
回复
引用 2 楼 Snail_cz 的回复:
好的,这个问题确实是因为服务没有启动导致的,把ora.DATA.dg和ora.FRA.dg服务单独起了下,就可以了
但是想设置为开机自启动集群,不知道为什么不生效,已经参考类似这样的命令:crsctl modify resource "ora.DATA.dg" -attr "AUTO_START=always"
设置了相关参数。



[root@rac1 bin]# ./crsctl status resource -t
CRS-4535: Cannot communicate with Cluster Ready Services
CRS-4000: Command Status failed, or completed with errors.
[root@rac1 bin]# ./srvctl status nodeapps
PRKH-1010 : 无法与 CRS 服务通信。
[Communications Error(Native: prsr_initCLSS:[3])]
[root@rac1 bin]#



是什么原因呢?麻烦指导下


# crsctl enable crs

# crsctl start cluster -all

# crsctl stat res -t
lhdz_bj 2020-08-14
  • 打赏
  • 举报
回复
1、根据楼主反馈的信息看,这套RAC的状态是有问题的,很多资源没运行,建议把所有资源启动看看。
# crsctl stop cluster -all
# crsctl start cluster -all

2、如果资源始终启动不了,可能是RAC的安装有问题了,这个排查起来估计会比较繁琐,建议楼主还是找个靠谱的文档,重新装下吧。
目录 推荐序 前言 第1章 认识Oracle RAC 1.1 RAC产生的背景 1.2 RAC体系结构 1.2.1整体结构 1.2.2物理层次结构 1.2.3逻辑层次结构 1.3 RAC的特点 1.3.1双机并行 1.3.2高可用性 1.3.3易伸缩性 1.3.4低成本 1.3.5高吞吐量 1.4 RAC存在的问题 1.4.1稳定性 1.4.2高性能 1.5 RAC软件 1.5.1存储管理软件 1.5.2集群管理软件 1.5.3数据库管理软件 1.6本章小结 第2章 搭建类似生产环境RAC 2.1搭建环境 2.1.1 RAC的物理结构 2.1.硬件环境 2.1.3软件环境 2.2搭建存储服务器 2.2.1安装Openfiler操作系统 2.2.2Openfiler主界面 2.2.3配置iSCSI磁盘 2.3搭建数据库服务器 2.3.1为服务器配置4个网卡 2.3.2安装Linux操作系统 2.3.3挂载iSCSI磁盘 2.3.4配置udev固定iSCSI磁盘设备名称 2.3.5配置服务器的图形化环境 2.4 RAC运行环境安装前检查 2.4.1服务器检查 2.4.2存储检查 2.4.3网络检查 2.5配置数据库服务器 2.5.1安装软件包 2.5.2修改系统参数 2.5.3配置域名解析服务 2.5.4配置hosts文件 2.5.5创建组、用户和目录 2.5.6设置环境变量 2.5.7配置SSH用户等效性 2.5.8配置时间同步服务 2.5.9安装cvuqdisk包 2.5.10 CVU验证安装环境 2.6创建ASM磁盘 2.6.1安装ASMLib驱动 2.6.2创建ASMLib磁盘 2.7部署RAC 2.7.1安装Grid Infrastructure 2.7.2安装Database DBMS 2.7.3创建ASM磁盘组 2.7.4创建RAC数据库 2.8测试RAC 2.8.1连接方式测试 2.8.2异常情况测试 2.9虚拟机搭建RAC 2.9.1虚拟机Xen简介 2.9.2启动主机Xen内核 2.9.3 Xen虚拟机创建网络环境 2.9.4创建Xen存储服务器 2.9.5创建Xen数据库服务器 2.10本章小结 第3章 Clusterware集群软件 3.1 Grid Infrastructure架构 3.1.1 GI的特点 3.1.2 GI的应用 3.1.3 Clusterware的特点 3.1.4 Clusterware增强的特性 3.2 Clusterware磁盘文件 3.2.1表决磁盘 3.2.2集群注册表 3.2.3本地注册表 3.3 Clusterware启动流程 3.3.1启动流程 3.3.2后台进程 3.4 Clusterware隔离机制 3.4.1 Clusterware心跳 3.4.2 Clusterware隔离特性IPMI 3.4.3 RAC隔离体系 3.5网格即插即用 3.5.1 GPnP结构 3.5.2 GPnP profile文件 3.5.3 mDNS服务 3.6日志体系 3.6.1 ADR的特点 3.6.2 ADR目录结构 3.6.3命令行工具ADRCI 3.6.4 Clusterware日志文件 3.6.5 ASM实例和监听日志文件 3.6.6 Database日志文件 3.7本章小结 第4章 ASM存储软件 4.1 ASM简介 4.1.1 ASM的特点 4.1.2 ASM实例的功能 4.2 ASM磁盘组 4.2.1 ASM磁盘 4.2.2共享ASM磁盘组 4.2.3 ASM逻辑结构 4.2.4 ASM故障组 4.2.5 ASM条带化 4.3 ASM文件 4.3.1 ASM文件类型 4.3.2 ASM别名 4.3.3 ASM文件模板 4.4 ASM数据结构 4.4.1物理元数据 4.4.2虚拟元数据 4.5 ASM操作 4.5.1 RDBMS操作ASM文件 4.5.2 ASM文件的分配 4.5.3 ASM区间读写特性 4.5.4 ASM同步技术 4.5.5 ASM实例恢复和Crash恢复 4.5.6 ASM磁盘组操作 4.6 ACFS集群文件系统 4.6.1 ACFS概述 4.6.2 ADVM动态卷管理 4.6.3 ACFS快照 4.6.4 ACFS的备份和恢复 4.6.5 ACFS同ASM整合 4.7本章小结 第5章 RAC工作原理 5.1单实例并发与一致性 5.1.1数据读一致性与写一致性 5.1.2多版本数据块 5.1.3

17,377

社区成员

发帖
与我相关
我的任务
社区描述
Oracle 基础和管理
社区管理员
  • 基础和管理社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧