本篇內(nèi)容介紹了“Oracle 11G RAC集群安裝方法是什么”的有關(guān)知識(shí),在實(shí)際案例的操作過程中,不少人都會(huì)遇到這樣的困境,接下來就讓小編帶領(lǐng)大家學(xué)習(xí)一下如何處理這些情況吧!希望大家仔細(xì)閱讀,能夠?qū)W有所成!
在凱里等地區(qū),都構(gòu)建了全面的區(qū)域性戰(zhàn)略布局,加強(qiáng)發(fā)展的系統(tǒng)性、市場前瞻性、產(chǎn)品創(chuàng)新能力,以專注、極致的服務(wù)理念,為客戶提供網(wǎng)站設(shè)計(jì)、成都網(wǎng)站制作 網(wǎng)站設(shè)計(jì)制作按需搭建網(wǎng)站,公司網(wǎng)站建設(shè),企業(yè)網(wǎng)站建設(shè),品牌網(wǎng)站設(shè)計(jì),營銷型網(wǎng)站建設(shè),外貿(mào)營銷網(wǎng)站建設(shè),凱里網(wǎng)站建設(shè)費(fèi)用合理。數(shù)據(jù)庫版本:Oracle 11g
grid版本:grid 11g
系統(tǒng)版本:Centos 6.5
如果網(wǎng)卡的設(shè)備名兩個(gè)節(jié)點(diǎn)的名稱不一致,在安裝時(shí)不會(huì)出現(xiàn)錯(cuò)誤,但在安裝oracle數(shù)據(jù)庫軟件時(shí)會(huì)報(bào)錯(cuò),CRS運(yùn)行不正常。
因此在安裝grid前發(fā)現(xiàn)網(wǎng)卡名稱不一致要進(jìn)行更改,方法為:
例如兩個(gè)節(jié)點(diǎn)的的第二張網(wǎng)卡名稱不一致,節(jié)點(diǎn)rac1的為eth2,節(jié)點(diǎn)rac2的為eth3
現(xiàn)在將rac2的網(wǎng)卡名eth3更改為eth2:
1.將節(jié)點(diǎn)rac2的第二張網(wǎng)卡的停掉:ifdown eth3
2.將rac2的第二張網(wǎng)卡的配置文件 ifcfg-eth3 名字改為 ifcfg-eth2,vim打開后將 DEVICE=eth3 改為 DEVICE=eth2.
3.將/etc/udev/rules.d/70-persistent-net.rules 中的NAME=“eth3” 修改為NAME=“eth2”
例如:
[root@rac1 network-scripts]# cat /etc/udev/rules.d/70-persistent-net.rules # This file was automatically generated by the /lib/udev/write_net_rules # program, run by the persistent-net-generator.rules rules file. # # You can modify it, as long as you keep each rule on a single # line, and change only the value of the NAME= key. # PCI device 0x8086:0x100f (e1000) SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:34:5b:13", ATTR{type}=="1", KERNEL=="eth*", NAME="eth0" # PCI device 0x8086:0x100f (e1000) SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:52:b8:54", ATTR{type}=="1", KERNEL=="eth*", NAME="eth2"
4.將rac2主機(jī)重啟后設(shè)備名就改為eth2,與節(jié)點(diǎn)rac1網(wǎng)卡名稱一樣了。
[root@rac1 ~]# cat /etc/hosts #public-ip公網(wǎng)ip 172.16.140.146 rac1 172.16.140.247 rac2 #priv-ip私網(wǎng)ip 186.18.6.222 rac1-priv 186.18.6.186 rac2-priv #vip 172.16.140.99 rac1-vip 172.16.140.98 rac2-vip #scan-ip 172.16.140.97 rac-scan
PS: Oracle
RAC集群安裝需要配置網(wǎng)絡(luò)包含了公網(wǎng)IP,VIP,私網(wǎng)IP與scan-ip,其中公網(wǎng)IP,VIP,私網(wǎng)IP在兩個(gè)節(jié)點(diǎn)上都需要,而scan-ip只需要一個(gè)。
其中公網(wǎng)IP和vip都是可以正常對(duì)外訪問,私網(wǎng)IP是為了集群各個(gè)節(jié)點(diǎn)之間聯(lián)系使用,私網(wǎng)IP顧名思義就是自己用的,因此網(wǎng)段設(shè)置并沒有特別要求,不沖突即可。
scan-ip網(wǎng)段也是可以正常對(duì)外訪問的。集群安裝后或自動(dòng)配置到主節(jié)點(diǎn)的網(wǎng)卡上顯示。具體ip功能以后另做介紹。
現(xiàn)在概括的說,兩節(jié)點(diǎn)的Oracle
RAC集群需要跟網(wǎng)絡(luò)工程師申請(qǐng)5個(gè)正常訪問網(wǎng)段的IP地址,自己再配置私網(wǎng)IP地址,安裝前公網(wǎng)IP地址和私網(wǎng)IP地址都可以在系統(tǒng)看到,VIP和scan-ip是在集群安裝完成后自動(dòng)配置到網(wǎng)卡上的。
(1)再節(jié)點(diǎn)主機(jī)上添加用戶和組(每個(gè)節(jié)點(diǎn)都需要?jiǎng)?chuàng)建):
[root@rac1 ~]# groupadd -g 1000 oinstall [root@rac1 ~]# groupadd -g 1200 asmadmin [root@rac1 ~]# groupadd -g 1201 asmdba [root@rac1 ~]# groupadd -g 1202 asmoper [root@rac1 ~]# groupadd -g 1300 dba [root@rac1 ~]# groupadd -g 1301 oper [root@rac1 ~]# useradd -m -u 1100 -g oinstall -G asmadmin,asmdba,asmoper,dba -d /home/grid -s /bin/bash grid [root@rac1 ~]# useradd -m -u 1101 -g oinstall -G dba,oper,asmdba -d /home/oracle -s /bin/bash oracle
(2)將用戶grid添加到dba組:
[root@rac1 app]# gpasswd -a grid dba Adding user grid to group dba
(3)修改用戶grid和oracle的密碼(所有節(jié)點(diǎn)):
[root@rac1 ~]passwd oracle [root@rac1 ~]passwd grid
(4)確定nobody用戶的信息:
[root@rac1 ~]# id nobody uid=99(nobody) gid=99(nobody) groups=99(nobody)
PS: 此用戶無需創(chuàng)建,如果不存在,進(jìn)行手工創(chuàng)建:
[root@rac1 ~]# /usr/sbin/useradd nobody
(5)禁用防火墻和SELNUX (所有節(jié)點(diǎn))
[root@rac1 ~]service iptables status [root@rac1 ~]service iptables stop [root@rac1 ~]chkconfig iptables off [root@rac1 ~]chkconfig iptables --list
(6)設(shè)置/etc/selinux/config 文件,將SELINUX 設(shè)置為disabled。
[root@rac1 ~]# cat /etc/selinux/config
# This file controls the state of SELinux on the system. # SELINUX= can take one of these three values: # enforcing - SELinux security policy is enforced. # permissive - SELinux prints warnings instead of enforcing. # disabled - No SELinux policy is loaded. SELINUX=disabled # SELINUXTYPE= can take one of these two values: # targeted - Targeted processes are protected, # mls - Multi Level Security protection. SELINUXTYPE=targeted
PS: 我處理的環(huán)境都是內(nèi)網(wǎng),并不連接互聯(lián)網(wǎng),因此時(shí)間同步使用的是集群自身的時(shí)間同步方式。
在 11gR2 中,RAC 在安裝的時(shí)候,時(shí)間同步可以用兩種方式來實(shí)現(xiàn):
NTP --Linux系統(tǒng)的時(shí)間同步服務(wù)器
CTSS --集群自身的時(shí)間同步
當(dāng)安裝程序發(fā)現(xiàn) NTP協(xié)議處于非活動(dòng)狀態(tài)時(shí),安裝集群時(shí)間同步服務(wù)將以活動(dòng)模式自動(dòng)進(jìn)行安裝并通過所有節(jié)點(diǎn)的時(shí)間。
如果發(fā)現(xiàn)配置了 NTP ,則以觀察者模式啟動(dòng)集群時(shí)間同步服務(wù),Oracle Clusterware 不會(huì)在集群中進(jìn)行活動(dòng)的時(shí)間同步。
Oracle 集群時(shí)間同步服務(wù) (ctssd) 旨在為那些 Oracle RAC 數(shù)據(jù)庫無法訪問 NTP服務(wù)的組 織提供服務(wù)。
這里我們使用CTSS.oracle也建議使用集群內(nèi)部時(shí)間同步的方式:
–配置CTSS
使用集群時(shí)間同步服務(wù)在集群中提供同步服務(wù),需要卸載網(wǎng)絡(luò)時(shí)間協(xié)議 (NTP) 及其配置。
要停用 NTP服務(wù),必須停止當(dāng)前的 ntpd服務(wù),從初始化序列中禁用該服務(wù),并刪 除 ntp.conf 文件。
要在Linux上完成這些步驟,以 root用戶身份在所有 Oracle RAC節(jié)點(diǎn)上運(yùn)行以下命令:
/sbin/service ntpd stop Shutting down ntpd: [ OK ]
既有可能會(huì)關(guān)閉失敗,不過無所謂
chkconfig ntpd off mv /etc/ntp.conf /etc/ntp.conf.original chkconfig ntpd --list ntpd 0:off 1:off 2:off 3:off 4:off 5:off 6:off
還要?jiǎng)h除以下文件:
rm /var/run/ntpd.pid
(1)集群使用ASM存儲(chǔ)方式,如節(jié)點(diǎn)掛載的是裸設(shè)備,通過fdisk -l查看設(shè)備:
PS:以下輸出是我安裝的實(shí)際用的機(jī)器中的磁盤配置,這種磁盤路徑操作起來是很方便的,但是這種磁盤掛載路徑大多出現(xiàn)在虛擬云服務(wù)器上,如果是實(shí)體機(jī),則由于存儲(chǔ)做了多鏈路優(yōu)化,掛載路徑就不一樣了,udev的配置文件處理則無法使用如下方法來生成,至于實(shí)體機(jī)多鏈路存儲(chǔ)掛載的共享存儲(chǔ)如何做UDEV,我會(huì)額外寫一個(gè)來做介紹。
[root@rac1 ~]# fdisk -l Disk /dev/sda: 53.7 GB, 53687091200 bytes 255 heads, 63 sectors/track, 6527 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x0004d5d5 Device Boot Start End Blocks Id System /dev/sda1 * 1 26 204800 83 Linux Partition 1 does not end on cylinder boundary. /dev/sda2 26 548 4194304 82 Linux swap / Solaris Partition 2 does not end on cylinder boundary. /dev/sda3 548 6528 48028672 83 Linux Disk /dev/sdb: 1073 MB, 1073741824 bytes 34 heads, 61 sectors/track, 1011 cylinders Units = cylinders of 2074 * 512 = 1061888 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdc: 1073 MB, 1073741824 bytes 34 heads, 61 sectors/track, 1011 cylinders Units = cylinders of 2074 * 512 = 1061888 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdd: 1073 MB, 1073741824 bytes 34 heads, 61 sectors/track, 1011 cylinders Units = cylinders of 2074 * 512 = 1061888 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sde: 1073 MB, 1073741824 bytes 34 heads, 61 sectors/track, 1011 cylinders Units = cylinders of 2074 * 512 = 1061888 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdg: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdf: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdh: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdi: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/sdj: 6308 MB, 6308233216 bytes 195 heads, 62 sectors/track, 1019 cylinders Units = cylinders of 12090 * 512 = 6190080 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000
PS:
磁盤掛載這里啰嗦幾句:在掛載共享磁盤前跟系統(tǒng)工程師溝通,提前劃分磁盤大小,主要是用于安裝grid的vote盤,我在安裝時(shí)選擇劃分三塊30G左右的磁盤來安裝grid(vote磁盤組使用normal冗余,三塊即可),然后其他磁盤考慮以后磁盤io避免熱點(diǎn),盡量不是一整塊磁盤掛載。
另外12c的rac要求vote磁盤組大小要比11g要求大,如果后續(xù)會(huì)考慮升級(jí)12C的RAC,可以將用于vote磁盤組的三快盤容量加大,每個(gè)50-100G即可。
(2)檢查所有節(jié)點(diǎn)的掛載磁盤的scsi開頭的盤號(hào)是否一致,命令是:
[root@rac1 ~]# ll /dev/disk/by-id [root@rac2 ~]# ll /dev/disk/by-id
在此只要使用udev 映射成grid可以識(shí)別的磁盤
(3)在使用fdisk -l中查看的設(shè)備名字母的編號(hào)(除了用于安裝系統(tǒng)的盤,一般是sda),執(zhí)行下列腳本:
[root@rac1 ~]# for i in b c d e f g h i j ; > do > echo "KERNEL==\"sd*\", BUS==\"scsi\", PROGRAM==\"/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/\$name\", RESULT==\"`/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/sd$i`\", NAME=\"asm-disk$i\", OWNER=\"grid\", GROUP=\"asmadmin\", MODE=\"0660\"" > done KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45525936676145692d66374e542d476c666e", NAME="asm-diskb", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45526a6d47665a522d6f7a39642d65674f47", NAME="asm-diskc", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45525a574f6573662d6a4c59642d63375933", NAME="asm-diskd", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c4552324f6d38394d2d525835432d56415337", NAME="asm-diske", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45526d7636645a542d577636452d62375874", NAME="asm-diskf", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c45527269467344372d644635642d32527033", NAME="asm-diskg", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c4552735232776e502d674542432d75787338", NAME="asm-diskh", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c455250456471356e2d534170302d65656262", NAME="asm-diski", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd*", BUS=="scsi", PROGRAM=="/sbin/scsi_id --whitelisted --replace-whitespace --device=/dev/$name", RESULT=="14f504e46494c4552386f6a4e56632d4f6661442d32765a54", NAME="asm-diskj", OWNER="grid", GROUP="asmadmin", MODE="0660"
(4)進(jìn)入到udev目錄中
[root@rac1 ~]]# cd /etc/udev/rules.d/ [root@rac1 ~]# vim 99-oracle.rules
將輸出的內(nèi)容全部拷貝到99-oracle.rules中,拷貝時(shí)一定要確認(rèn)拷貝完全與命令輸出一致。此文件一般是不存在的,手動(dòng)創(chuàng)建即可。
執(zhí)行命令:
[root@rac1 ~]# start_udev 正在啟動(dòng) udev: [確定]
執(zhí)行命令成功后查看:
[root@rac1 ~]# ll /dev/asm* brw-rw---- 1 grid asmadmin 8, 16 1月 5 10:47 /dev/asm-diskb brw-rw---- 1 grid asmadmin 8, 32 1月 5 10:47 /dev/asm-diskc brw-rw---- 1 grid asmadmin 8, 48 1月 5 10:47 /dev/asm-diskd brw-rw---- 1 grid asmadmin 8, 64 1月 5 10:47 /dev/asm-diske brw-rw---- 1 grid asmadmin 8, 80 1月 5 10:47 /dev/asm-diskf brw-rw---- 1 grid asmadmin 8, 96 1月 5 10:47 /dev/asm-diskg brw-rw---- 1 grid asmadmin 8, 112 1月 5 10:47 /dev/asm-diskh brw-rw---- 1 grid asmadmin 8, 128 1月 5 10:47 /dev/asm-diski brw-rw---- 1 grid asmadmin 8, 144 1月 5 10:47 /dev/asm-diskj
PS:
集群之所以在共享磁盤掛在后無法識(shí)別,主要是掛在的磁盤的屬主和屬組是root,grid用戶無權(quán)限訪問,因此要想讓grid和oracle識(shí)別這些掛載的磁盤必須將磁盤修改權(quán)限,但是共享磁盤的掛載方式會(huì)在主機(jī)重啟后重新去映射,因此,如果手動(dòng)去直接修改共享磁盤的權(quán)限,在主機(jī)重啟后權(quán)限又會(huì)變成root管理員權(quán)限,udev的方式是直接將磁盤重新修改權(quán)限后映射的方式寫到規(guī)則中(rules)。
另一種處理方式可以通過將修改權(quán)限的命令寫到主機(jī)重啟后訪問的最后一個(gè)文件中去,讓系統(tǒng)自動(dòng)每次如果主機(jī)系統(tǒng)重啟都會(huì)執(zhí)行。已實(shí)現(xiàn)共享磁盤的訪問。也就是裸設(shè)備使用raw方式處理共享磁盤。
使用的是Linux的 raw 命令
例如:
[root@rac1 ~]cat /etc/rc.loca # Oracle Cluster OCRDG ##### chown grid:asmadmin /dev/mapper/mpathb chown grid:asmadmin /dev/mapper/mpathc chown grid:asmadmin /dev/mapper/mpathd chown grid:asmadmin /dev/mapper/mpathe chown grid:asmadmin /dev/mapper/mpathf chmod 660 /dev/mapper/mpathb chmod 660 /dev/mapper/mpathc chmod 660 /dev/mapper/mpathd chmod 660 /dev/mapper/mpathe chmod 660 /dev/mapper/mpathf raw /dev/raw/raw1 /dev/mapper/mpathb raw /dev/raw/raw2 /dev/mapper/mpathc raw /dev/raw/raw3 /dev/mapper/mpathd raw /dev/raw/raw4 /dev/mapper/mpathe raw /dev/raw/raw5 /dev/mapper/mpathf sleep 2 chown grid:asmadmin /dev/raw/raw1 chown grid:asmadmin /dev/raw/raw2 chown grid:asmadmin /dev/raw/raw3 chown grid:asmadmin /dev/raw/raw4 chown grid:asmadmin /dev/raw/raw5 chmod 660 /dev/raw/raw1 chmod 660 /dev/raw/raw2 chmod 660 /dev/raw/raw3 chmod 660 /dev/raw/raw4 chmod 660 /dev/raw/raw5
這是以前使用的老的方式處理共享磁盤,不過只能在11g以以前舊的版本中,12c版本只支持udev的方式處理共享磁盤。不在支持裸設(shè)備raw方式處理。
(5)在上述操作節(jié)點(diǎn)1上執(zhí)行完畢后,將創(chuàng)建的99-oracle.rules 傳給節(jié)點(diǎn)2,然后節(jié)點(diǎn)2執(zhí)行 start_udev ,開啟后查詢ll /dev/asm* 得到和節(jié)點(diǎn)1同樣的結(jié)果
1.在節(jié)點(diǎn)1和節(jié)點(diǎn)2上分別執(zhí)行:
[root@rac1 ~]mkdir -p /oracle/app/grid/11.2.0.4 [root@rac1 ~]mkdir -p /oracle/grid [root@rac1 ~]chown -R grid:oinstall /oracle [root@rac1 ~]mkdir -p /oracle/app/oracle/11.2.0.4/db_1 [root@rac1 ~]chown -R oracle:oinstall /oracle/app/oracle [root@rac1 ~]chmod -R 775 /oracle [root@rac2 ~]mkdir -p /oracle/app/grid/11.2.0.4 [root@rac2 ~]mkdir -p /oracle/grid [root@rac2 ~]chown -R grid:oinstall /oracle [root@rac2 ~]mkdir -p /oracle/app/oracle/11.2.0.4/db_1 [root@rac2 ~]chown -R oracle:oinstall /oracle/app/oracle [root@rac2 ~]chmod -R 775 /oracle
2.配置環(huán)境變量
Grid 用戶
修改grid 用戶的.bash_profile. 注意每個(gè)節(jié)點(diǎn)的不同內(nèi)容:
節(jié)點(diǎn)1:
[root@rac1 ~]# su - grid [grid@rac1 ~]$ vim .bash_profile export ORACLE_SID=+ASM1 export ORACLE_BASE=/oracle/grid export ORACLE_HOME=/oracle/app/grid/11.2.0.4 export PATH=$ORACLE_HOME/bin:$PATH
節(jié)點(diǎn)2:
[root@rac2 ~]# su - grid [grid@rac2 ~]$ vim .bash_profile export ORACLE_SID=+ASM2 export ORACLE_BASE=/oracle/grid export ORACLE_HOME=/oracle/app/grid/11.2.0.4 export PATH=$ORACLE_HOME/bin:$PATH
(PATH的配置信息要在grid用戶下在命令行上輸入 echo $PATH 得到的輸出結(jié)果)
Oracle 用戶
節(jié)點(diǎn)1:
[root@rac1 ~]# su - oracle [grid@rac1 ~]$ vim .bash_profile export ORACLE_SID=student1 export ORACLE_BASE=/oracle/app/oracle export ORACLE_HOME=$ORACLE_BASE/11.2.0.4/db_1 export PATH=$ORACLE_HOME/bin:$PATH
節(jié)點(diǎn)2:
[root@rac2 ~]# su - oracle [grid@rac2 ~]$ vim .bash_profile export ORACLE_SID=student2 export ORACLE_BASE=/oracle/app/oracle export ORACLE_HOME=$ORACLE_BASE/11.2.0.4/db_1 export PATH=$ORACLE_HOME/bin:$PATH
要改善 Linux 系統(tǒng)上的軟件性能,必須對(duì) Oracle軟件所有者用戶(grid、oracle)增加以下資源限制:
Shell 限制 limits.conf 中的條目 硬限制
打開文件描述符的大數(shù) nofile 65536
可用于單個(gè)用戶的大進(jìn)程數(shù) nproc 16384
進(jìn)程堆棧段的大大小 stack 10240
以 root 用戶身份,在每個(gè) Oracle RAC 節(jié)點(diǎn)上,在 /etc/security/limits.conf 文件中添加
如下內(nèi)容,或者執(zhí)行執(zhí)行如下命令:(整個(gè)復(fù)制到命令行)
cat >> /etc/security/limits.conf <<EOF grid soft nproc 2047 grid hard nproc 16384 grid soft nofile 1024 grid hard nofile 65536 oracle soft nproc 2047 oracle hard nproc 16384 oracle soft nofile 1024 oracle hard nofile 65536 EOF
在每個(gè) Oracle RAC 節(jié)點(diǎn)上,在 /etc/pam.d/login 文件中添加或編輯下面一行內(nèi)容:(整個(gè)復(fù)制到命令行)
cat >> /etc/pam.d/login <<EOF session required pam_limits.so EOF
shell 的限制
對(duì)默認(rèn)的 shell 啟動(dòng)文件進(jìn)行以下更改,以便更改所有 Oracle安裝所有者的 ulimit設(shè)置:
在每個(gè) Oracle RAC 節(jié)點(diǎn)上,對(duì)于 Bourne、Bash 或 Korn shell,通過運(yùn)行以下命令將以下行添加到 /etc/profile文件:(整個(gè)復(fù)制到命令行)
cat >> /etc/profile <<EOF if [ /$USER = "oracle" ] || [ /$USER = "grid" ]; then if [ /$SHELL = "/bin/ksh" ]; then ulimit -p 16384 ulimit -n 65536 else ulimit -u 16384 -n 65536 fi umask 022 fi EOF
vim /etc/sysctl.conf kernel.shmmax = 4294967295 kernel.shmall = 2097152 kernel.shmmni = 4096 kernel.sem = 250 32000 100 128 fs.file-max = 6815744 net.ipv4.ip_local_port_range = 9000 65500 net.core.rmem_default=262144 net.core.rmem_max=4194304 net.core.wmem_default=262144 net.core.wmem_max=1048576 fs.aio-max-nr=1048576
以上操作完成后在每個(gè) Oracle RAC 節(jié)點(diǎn)上執(zhí)行:
sysctl -p
在每個(gè) Oracle RAC 節(jié)點(diǎn)上,安裝相關(guān)的依賴包:
yum -y install autoconf automake binutils-devel bison cpp dos2unix ftp gcc gcc-c++ lrzsz python-deve compat-db compat-db42 compat-db43 compat-gcc-34 compat-gcc-34-c++ compat-libstdc++-33 glibc-* glibc-*.i686 libXpm-*.i686 libXp.so.6 libXt.so.6 libXtst.so.6 libgcc_s.so.1 ksh libXp libaio-devel numactl numactl-devel unixODBC unixODBC-devel compat-libcap* elfutils-libelf*
PS: 如果使用到了oracleasm相關(guān)的包需要從官方網(wǎng)站下載并進(jìn)行安裝:
rpm -ivh oracleasmlib-2.0.4-1.el6.x86_64.rpm rpm -ivh oracleasm-support-2.1.8-1.el6.x86_64.rpm
yum源的配置使用的是本地yum源,配置方法可參考: Linux配置本地yum源
在安裝之前運(yùn)行g(shù)rid安裝檢測,使用的是grid安裝包解壓包中runcluvfy.sh,命令為:
[grid@rac1 ~]$ ./runcluvfh.sh stage -pre crsinst -n rac1,rac2 -fixup -verbose
從輸出的文本中檢測那些檢查項(xiàng)沒有通過,做針對(duì)性處理。
PS:
一般檢測都是通過的,只有在用戶等同性檢測中會(huì)出現(xiàn)用戶等同性失敗導(dǎo)致不通過,可以通過手動(dòng)配置節(jié)點(diǎn)間的SSH免密訪問來解決。處理檢測不通過的項(xiàng)后再次檢測沒有問題后就可以正式進(jìn)入grid與Oracle軟件的安裝階段了
“Oracle 11G RAC集群安裝方法是什么”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識(shí)可以關(guān)注創(chuàng)新互聯(lián)-成都網(wǎng)站建設(shè)公司網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實(shí)用文章!
新聞標(biāo)題:Oracle11GRAC集群安裝方法是什么-創(chuàng)新互聯(lián)
地址分享:http://aaarwkj.com/article2/jcioc.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供電子商務(wù)、標(biāo)簽優(yōu)化、用戶體驗(yàn)、服務(wù)器托管、網(wǎng)站制作、網(wǎng)站策劃
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容