Oracle RAC 11 Guía de supervivencia, formulario de solicitud rac.

Oracle RAC 11 Guía de supervivencia, formulario de solicitud rac.

En el pasado, no era fácil para familiarizarse con Oracle Real Application Clusters (RAC), debido al precio del hardware necesario para una configuración RAC de producción típico que hace que esta meta imposible.

sistemas de archivos compartidos de almacenamiento o sistemas de archivos, incluso en racimo (por ejemplo OCFS2) se utilizan principalmente en una red de área de almacenamiento donde todos los nodos de acceso directamente al almacenamiento en el sistema de archivos compartidos. Esto hace posible que los nodos fallen sin afectar el acceso al sistema de archivos de los otros nodos. sistemas de archivos compartidos de disco se utilizan normalmente en un clúster de alta disponibilidad.

En el corazón de Oracle RAC es un subsistema de disco compartido. Todos los nodos del clúster deben ser capaces de acceder a todos los datos, archivos de registro de rehacer, archivos de control y archivos de parámetros para todos los nodos del clúster. Los discos de datos deben estar disponibles a nivel mundial para permitir que todos los nodos tengan acceso a la base de datos. Cada nodo tiene sus propios archivos de registro y control de rehacer pero los otros nodos debe ser capaz de acceder a ellos con el fin de recuperar ese nodo en el caso de un fallo del sistema.

La siguiente RAC arquitectura debe sólo se puede utilizar para entornos de prueba.

127.0.0.1 localhost localhost.localdomain
#
# Red Pública – (eth0)
gentic 192.168.138.35
bodega 192.168.138.36

# Interconexión privada – (eth1)
192.168.137.35 gentic-priv
192.168.137.36 bodega-priv

# IP virtual Pública (VIP) para direcciones – (eth0)
192.168.138.130 gentic-vip
192.168.138.131 bodega-vip

Acerca de las direcciones IP

dirección IP virtual

Una dirección de protocolo de Internet (IP) para cada nodo, que se utiliza como la dirección IP virtual (VIP) para conexiones de cliente. Si un nodo falla, entonces clúster Oracle conmuta la dirección VIP a un nodo disponible. Esta dirección debe estar en el archivo / etc / hosts en cualquier nodo. El VIP no debe estar en uso en el momento de la instalación, ya que esta es una dirección IP que gestiona clúster Oracle.

Cuando se produce automáticamente la conmutación por error, suceden dos cosas:

  1. El nodo de nueva re-arps el mundo lo que indica una nueva dirección MAC para la dirección. Para clientes conectados directamente, esto generalmente hace que se vea errores en sus conexiones a la dirección antigua.
  2. Los siguientes paquetes enviados al VIP van al nuevo nodo, que enviará paquetes RST de error de nuevo a los clientes. Esto da lugar a los clientes obtener los errores inmediatamente.

Esto significa que cuando el cliente emite SQL para el nodo que se ha reducido, o atraviesa la lista de direcciones mientras se conecta, en lugar de esperar en un tiempo muy largo TCP / IP de tiempo de espera (

10 minutos), el cliente recibe un restablecimiento TCP. En el caso de SQL, esto es ORA-3113. En el caso de la conexión, se utiliza la siguiente dirección en tnsnames.

Yendo un paso más allá es hacer uso de conmutación por error de aplicación transparente (TAF). Con TAF ha configurado correctamente, es posible evitar por completo los errores ORA-3113 alltogether.

dirección IP pública

El nombre de la dirección IP pública debe poder resolver al nombre de host. Puede registrar tanto la IP pública y la dirección VIP con el DNS. Si usted no tiene un DNS, entonces usted debe asegurarse de que ambas direcciones IP públicas están en el archivo de nodos / etc / hosts (para todos los nodos del clúster)

Dirección IP privada

Una dirección IP privada para cada nodo sirve como la dirección de interconexión privada sólo para la comunicación del clúster de los entrenudos. Lo siguiente debe ser cierto para cada dirección IP privada:

– Debe ser separada de la red pública
– Debe ser accesible en la misma interfaz de red en cada nodo
– Debe ser conectado a un conmutador de red entre los nodos de la
red privada; interconecta crosscable no son compatibles

Utilizamos Oracle Enterprise Linux 5.0. Una guía gráfica general de la instalación del sistema operativo se puede encontrar aquí . Más específicamente, debería ser una instalación de servidor con un mínimo de intercambio de 2G, cortafuegos y seguro Linux discapacitados. Hemos instalado todo para nuestro entorno de prueba, Oracle recomienda una instalación de servidor por defecto.

Desactivar SELINUX (en ambos nodos)

# Este archivo controla el estado de SELinux en el sistema.
SELINUX = desactivado

Desactivar Firewall (en ambos nodos)

Compruebe que la opción de firewall está desactivado.

rootgt; /etc/rc.d/init.d/iptables estado
rootgt; /etc/rc.d/init.d/iptables detienen
rootgt; chkconfig iptables fuera

Sincronizar la hora con NTP (En ambos nodos)

Asegúrese de que cada nodo miembro de la agrupación se establece lo más estrechamente posible a la misma fecha y hora. Oracle recomienda encarecidamente el uso de la característica Network Time Protocol de la mayoría de los sistemas operativos para este fin, con todos los nodos utilizando la misma referencia del servidor Network Time Protocol.

rootgt; estado /etc/init.d/ntpd
ntpd (pid 2295) se está ejecutando.

swisstime.ethz.ch servidor
restringir la máscara swisstime.ethz.ch 255.255.255.255 NOMODIFY notrap noquery

Parámetros del kernel (en ambos nodos)

tendrán que ser definido en cada nodo del clúster cada vez que se arranca la máquina los parámetros del núcleo. Esta sección se centra en la configuración de ambos servidores Linux – conseguir cada una preparada para la instalación de Oracle RAC 11g. Esto incluye la verificación de suficiente espacio de intercambio, el establecimiento de la memoria compartida y los semáforos, se fija el importe máximo de identificadores de archivo, establecer el rango de puertos IP local, la fijación de límites de concha para el usuario de Oracle y la activación de todos los parámetros del kernel para el sistema.

kernel.shmmni = 4096
net.ipv4.ip_local_port_range = 1024 65000
net.core.rmem_default = 4194304
net.core.rmem_max = 4194304
net.core.wmem_default = 262144
net.core.wmem_max = 262144

# Parámetros adicionales añadidos para el RAC
# ———————————–
net.ipv4.ipfrag_high_thresh = 524288
net.ipv4.ipfrag_low_thresh = 393216
net.ipv4.tcp_rmem = 4096 524288 16777216
net.ipv4.tcp_wmem = 4096 524288 16777216
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_sack = 0
net.ipv4.tcp_window_scaling = 1
net.core.optmem_max = 524287
net.core.netdev_max_backlog = 2500
sunrpc.tcp_slot_table_entries = 128
sunrpc.udp_slot_table_entries = 128
net.ipv4.tcp_mem = 16384 16384 16384
fs.file-max = 6553600

Ejecute el siguiente comando para cambiar los parámetros actuales del núcleo

rootgt; / Sbin / sysctl -p

Límites para usuario de Oracle (en ambos nodos)

# Límites para los usuarios de Oracle
Oracle nproc suave 2047
Oracle nproc dura 16384
Oracle nofile suave 1024
Oracle dura nofile 65536

# Para Oracle
sesión requiere /lib/security/pam_limits.so
pam_limits.so sesión requerida

De servicios para iniciar (En ambos nodos)

Comienza sólo los servicios necesarios, esto se puede hacer con el comando chkconfig o servicio.

rootgt; chkconfig –list | grep "3: en"

rootgt; servicio –status-todo | grep "Esta corriendo"

Cree los siguientes grupos y el usuario de Oracle en los tres anfitriones

rootgt; groupadd -g 500 oinstall
rootgt; groupadd -g 400 dba

rootgt; useradd -u -g 400 500 -G dba -c "Oracle propietario" -d / home / oracle -s / bin / oracle Bash
rootgt; passwd oracle

# programas específicos del entorno del usuario y de inicio

TZ = MET; exportación TZ
PATH = $: $ HOME / bin
ENV = $ HOME / .bashrc
BASH_ENV = $ HOME / .bashrc
NOMBRE DE USUARIO = `whoami`
POSTFIX = / usr / local / postfix
# LANG = en_US.UTF-8
LANG = en_US
COLUMNAS = 130
LÍNEAS = 45
DISPLAY = 192.168.138.11: 0.0
COLUMNAS exportación NOMBRE DE USUARIO ENV LÍNEAS DE PLAZO PS1 PS2 CAMINO POSTFIX BASH_ENV LANG DISPLAY

# Configuración del terminal de tipo correcto

si [ `tty`! = "/ Dev / tty1" ]
entonces
# TERM = linux
TERM = vt100
más
# TERM = linux
TERM = vt100
fi

# Configuración de terminal (prueba en [-t 0] se utiliza para evitar problemas con Oracle instalador)
# -t Fd True si descriptor de fichero fd está abierto y se refiere a un terminal.

si [-t 0]
entonces
stty erase "H ^" matar "T ^" intr "^ C" EF "D ^"
stty CS8 -parenb -istrip hupcl ixon IXOFF pestañas
fi

# Activa el entorno de shell

# # Set -u error si la variable no definida.
trampa "echo -e ‘de cierre de sesión $ LOGNAME’" 0 # qué hacer al salir.

# Configuración del entorno de Oracle 11

# Configure las rutas de búsqueda:

# Fecha establecida en el Europeo-Form

echo -e " "
fecha ‘+ Fecha:..% d% m% y Hora:% H:% M:% S’
echo -e " "
uname -a

# Clean-shell historial de archivos .sh_history

# Mostrar última entrada

.lastlogin gato
plazo = `tty`
echo -e "Última entrada a `date ‘+% H:% M,% h% d’` en $ plazo" gt; .lastlogin
echo -e " "

si [$ = LOGNAME "raíz" ]
entonces
echo -e "Advertencia: se está SUPERUSUARIO. "
echo -e " "
fi

# Obtener los alias y funciones

# Conjunto de Shell Límites de usuario oracle

si [$ USER = "oráculo" ]
entonces
ulimit -u -n 16384 65536
fi

# Umask nuevos archivos a rw-r – r–

alias de más = menos
alias arriba cd = ‘. ‘
alias kk = ‘ls -la | Menos’
alias ll = ‘ls -la’
alias ls = ‘ls -F’
alias ps ps-ef = ”
alias principal = ‘cd $ HOME’
alias que es = “tipo -path ‘
h = alias ‘historia’
#
# No producen volcados del núcleo
#
# Ulimit -c 0

PS1 ="`Whoami` @ \ h: \ wgt; "
exportación PS1

PS2 ="gt; "
exportación PS2

Crear y exportar directorios compartidos en NFS-Servidor (Opal)

root @ opalgt; mkdir -p / u01 / crscfg
root @ opalgt; mkdir -p / u01 / votdsk
root @ opalgt; mkdir -p / u01 / oradat
root @ opalgt; chown -R oráculo: oinstall / u01 / crscfg
root @ opalgt; chown -R oráculo: oinstall / u01 / votdsk
root @ opalgt; chown -R oráculo: oinstall / u01 / oradat
root @ opalgt; chmod -R 775 / u01 / crscfg
root @ opalgt; chmod -R 775 / u01 / votdsk
root @ opalgt; chmod -R 775 / u01 / oradat

/ U01 / crscfg * (rw, sync, no_wdelay, insecure_locks, no_root_squash)
/ U01 / votdsk * (rw, sync, no_wdelay, insecure_locks, no_root_squash)
/ U01 / oradat * (rw, sync, insegura, root_squash, no_subtree_check)

Esta opción no tiene efecto si se fija también asíncrono. El servidor NFS normalmente retrasar cometer una petición de escritura en el disco ligeramente si se sospecha que otra petición de escritura relacionada puede estar en progreso o puede llegar pronto. Esto permite que múltiples solicitudes de escritura que se comprometan a disco con la sola operación que puede mejorar el rendimiento. Si un servidor NFS recibió principalmente pequeñas solicitudes no relacionadas, este comportamiento podría en realidad reducir el rendimiento, por lo no_wdelay está disponible para apagarlo. El valor por defecto puede ser solicitado de manera explícita con la opción wdelay.

mapa root_squash solicitudes de uid / gid 0 al uid / gid anónimo. no_root_squash se apaga aplastamiento de root.

La opción insegura permite a los clientes con implementaciones NFS que no utilizan un puerto reservado para NFS

Esta opción permite el control del subárbol, lo que añade otro nivel de seguridad, pero puede ser la falta de fiabilidad en algunas circunstancias.

Si se exporta un subdirectorio de un sistema de archivos, sino que todo el sistema de archivos no es entonces cada vez que llega una petición de NFS, el servidor debe comprobar no sólo que el archivo de acceso se encuentra en el sistema de archivos adecuado (que es fácil), sino también que es en el árbol exportado (que es más difícil). Esta comprobación se llama el subtree_check.

Con el fin de realizar esta comprobación, el servidor debe incluir alguna información acerca de la ubicación del archivo de la "gestor de archivo" que se entrega al cliente. Esto puede causar problemas con el acceso a los archivos que se han cambiado de nombre, mientras que un cliente tiene abiertos (aunque en muchos casos simples que seguirá funcionando).

el control del subárbol también se utiliza para asegurarse de que los archivos dentro de los directorios a los que sólo root tiene acceso sólo se puede acceder si el sistema de archivos se exporta con no_root_squash (véase más adelante), incluso si el archivo en sí permite un acceso más general.

Para más información, ver: exportaciones hombre

root @ opalgt; exportfs -v

/ U01 / crscfg lt; worldgt; (rw, no_root_squash, no_subtree_check, insecure_locks, anonuid = 65534, anongid = 65534)
/ U01 / votdsk lt; worldgt; (rw, no_root_squash, no_subtree_check, insecure_locks, anonuid = 65534, anongid = 65534)
/ U01 / oradat lt; worldgt; (rw, wdelay, insegura, root_squash, no_subtree_check, anonuid = 65534, anongid = 65534)

Montar directorios compartidos en todos los nodos de RAC (Bodega. Gentic)

rootgt; mkdir -p / u01 / crscfg
rootgt; mkdir -p / u01 / votdsk
rootgt; mkdir -p / u01 / oradat
rootgt; chown -R oráculo: oinstall / u01 / crscfg
rootgt; chown -R oráculo: oinstall / u01 / votdsk
rootgt; chown -R oráculo: oinstall / u01 / oradat
rootgt; chmod -R 775 / u01 / crscfg
rootgt; chmod -R 775 / u01 / votdsk
rootgt; chmod -R 775 / u01 / oradat

ópalo: / u01 / crscfg / u01 / crscfg NFS
rw, bg, duro, nointr, tcp, vers = 3, Timeo = 300, rsize = 32768, wsize = 32768, actimeo = 0 0 0
ópalo: / u01 / votdsk / u01 / votdsk NFS
rw, bg, duro, nointr, tcp, vers = 3, Timeo = 300, rsize = 32768, wsize = 32768, actimeo = 0 0 0
ópalo: / u01 / oradat / u01 / oradat NFS usuario, tcp, rsize = 32768, wsize = 32768, duros, intr, noac, nfsvers = 3 0 0

El valor en décimas de segundo antes de enviar la primera retransmisión después de un tiempo de espera RPC. El valor por defecto depende de si proto = UDP o proto = tcp está en vigor (véase más adelante).

El valor por defecto para UDP es de 7 décimas de segundo. El valor predeterminado para TCP es de 60 segundos. Después de la primera tiempo de espera, el tiempo de espera se duplica después de cada tiempo de espera sucesivos hasta que se alcanza un tiempo de espera máximo de 60 segundos o las retransmisiones suficientes haber ocurrido para causar un tiempo de espera mayor.

Entonces, si el sistema de archivos está montado duro, cada nueva cascada de tiempo de espera se reinicia en dos veces el valor inicial de la cascada anterior, duplicando en cada retransmisión. El tiempo de espera máximo es siempre 60 segundos.

Usando actimeo establece todos acregmin, acregmax, acdirmin, y acdirmax en el mismo valor. No existe un valor predeterminado.

Utilizar un número de versión RPC alternativo para contactar con el demonio NFS en el host remoto. Esta opción es útil para máquinas que pueden ejecutar múltiples servidores NFS. El valor por defecto depende del núcleo que está usando.

Deshabilitar todos los tipos de atributo de almacenamiento en caché por completo. Esto extrae una penalización de rendimiento importante, pero permite que dos clientes NFS obtengan resultados razonables cuando ambos clientes están escribiendo activamente a una exportación común en el servidor.

rootgt; Reiniciar servicio NFS

El cierre de NFS mountd: [OK]
El cierre de NFS daemon: [OK]
El cierre de las cuotas de NFS: [OK]
El cierre de los servicios NFS: [OK]
Inicio de los servicios NFS: [OK]
A partir cuotas NFS: [OK]
A partir de NFS daemon: [OK]
A partir de NFS mountd: [OK]

rootgt; reinicio del servicio netfs

Cómo desmontar sistemas de archivos NFS: [OK]
Montaje de sistemas de archivos NFS: [OK]
Montaje otros sistemas de archivos: [OK]

Configuración de equivalencia de usuario de SSH

Antes de poder instalar y utilizar Oracle Real Application Clusters, debe configurar el shell seguro (SSH) para la "oráculo" cuenta de usuario UNIX en todos los nodos del clúster. El objetivo aquí es la equivalencia de usuario de configuración de la "oráculo" cuenta de usuario UNIX. la equivalencia de usuario permite al "oráculo" UNIX cuenta de usuario para acceder a todos los demás nodos del clúster (que se ejecutan comandos y copiar archivos) sin la necesidad de una contraseña.

Instalación de software de clúster Oracle y el software de base de datos Oracle sólo se realiza desde un nodo en un clúster CCR. Cuando se ejecuta el Oracle Universal Installer (OUI) en ese nodo particular, se utilizará el ssh y scp comandos para ejecutar comandos remotos en y copiar archivos (el software Oracle) para todos los demás nodos del clúster RAC.

/.ssh
oracle @ cellargt; chmod 700

/.ssh
oracle @ cellargt; / Usr / bin / ssh-keygen -t rsa

La generación de par pública / privada RSA Key.
Acceder a la ficha en la que guardar la clave (/home/oracle/.ssh/id_rsa):
Introduzca la frase de contraseña (vacío sin contraseña):
Introduce misma frase de contraseña de nuevo:
Su identificación se ha ahorrado en /home/oracle/.ssh/id_rsa.
La clave pública se ha guardado en /home/oracle/.ssh/id_rsa.pub.
La huella de la clave es: 47: 49: 95: 36: 70: 9a: cf: 54: 8b: 96: 43: DB: 39: ce: BD: bf oráculo @ bodega

/.ssh
oracle @ genticgt; chmod 700

/.ssh
oracle @ genticgt; / Usr / bin / ssh-keygen -t rsa

La generación de par pública / privada RSA Key.
Acceder a la ficha en la que guardar la clave (/home/oracle/.ssh/id_rsa):
Introduzca la frase de contraseña (vacío sin contraseña):
Introduce misma frase de contraseña de nuevo:
Su identificación se ha ahorrado en /home/oracle/.ssh/id_rsa.
La clave pública se ha guardado en /home/oracle/.ssh/id_rsa.pub.
La huella de la clave es: 90: 4c: 82: 48: f1: f1: 08: 56: DC: e9: c8: 98: CA: 94: 0c: 31 oráculo @ gentic

/.ssh
oracle @ cellargt; SCP id_rsa.pub gentic: /home/oracle/.ssh/authorized_keys

/.ssh
oracle @ genticgt; SCP id_rsa.pub bodega: /home/oracle/.ssh/authorized_keys

Compruebe authorized_keys y known_hosts

/.sshgt; authorized_keys gato

/.sshgt; known_hosts gato

/.sshgt; authorized_keys gato

/.sshgt; known_hosts gato

Así que, ¿qué es exactamente responsable del software de clúster Oracle? Contiene todos los metadatos y la configuración de clúster de base de datos, junto con varias funciones de administración del sistema para RAC. Se permite que el DBA para registrar e invitar a una instancia de Oracle (o casos) a la agrupación. Durante el funcionamiento normal, software de clúster Oracle enviará mensajes (a través de una operación especial de ping) a todos los nodos configurados en el clúster, a menudo llamado el “latido”. Si los latidos del corazón falla por cualquiera de los nodos, se comprueba con los archivos de configuración de clúster de Oracle (en el disco compartido) para distinguir entre un fallo de nodo real y un fallo en la red.

Crear CRS de inicio, registro de clúster y del disco de votación

Crear CRS Inicio en ambos nodos RAC

rootgt; mkdir -p / u01 / app / oracle / CRS
rootgt; chown -R oráculo: oinstall / u01 / app
rootgt; chmod -R 775 / u01 / app

rootgt; mkdir -p / u01 / app / oracle / CRS
rootgt; chown -R oráculo: oinstall / u01 / app
rootgt; chmod -R 775 / u01 / app

Crear registro de clúster y del disco de votación

oraclegt; touch / u01 / crscfg / crs_registry
oraclegt; touch / u01 / votdsk / voting_disk

Compruebe los requisitos previos

oraclegt; descomprimir linux_11gR1_clusterware.zip
oraclegt; cd clusterware

Antes de instalar el software de clúster, comprobar los requisitos previos se han cumplido mediante la utilidad runcluvfy.sh
en el directorio raíz de clúster.

oraclegt; .etapa /runcluvfy.sh -preparaciones crsinst -n gentic, -verbose bodega

La realización de comprobaciones previas para la configuración de servicios de clúster

Comprobación de la accesibilidad nodo.

Compruebe: asequibilidad de nodo del nodo "gentic"
El nodo de destino alcanzable?
———————————— ————————
gentic sí
trastero Sí
Resultado: comprobación de accesibilidad nodo pasado desde el nodo "gentic".

Comprobación de la equivalencia de usuario.

Compruebe: la equivalencia del usuario para "oráculo"
Nombre de nodo comentario
———————————— ————————
bodega pasó
gentic pasado
Resultado: verificación de equivalencia de usuario pasa por el usuario "oráculo".

Compruebe: Existencia de usuario "oráculo"
Nombre de nodo usuario existe Comentario
———— ———————— ————————
Si Bodega pasaron
sí pasaron Gentic
Resultado: Verificación de la existencia del usuario pasa por "oráculo".

Compruebe: Existencia de grupo "oinstall"
Nombre del nodo Estado del Grupo de Identificación
———— ———————— ————————
existe bodega 500
gentic existe 500
Resultado: Verificación de la existencia del Grupo pasó de "oinstall".

Compruebe: Composición del usuario "oráculo" en grupo "oinstall" [Como Principales]
Nombre de nodo usuario existe grupo existe en el Grupo de usuario Comentario Primaria
—————- ———— ———— ———— ———— ————
gentic sí sí sí sí pasado
bodega sí sí sí sí pasado
La membresía de verificación para el usuario: Resultado "oráculo" en grupo "oinstall" [Como principal] pasado.

privilegios administrativos cheque pasaron.

Comprobación de la conectividad de nodo.

Información de la interfaz para el nodo "bodega"
Dirección Nombre de interfaz de puerta de enlace IP de subred de subred Gateway por defecto de hardware
Dirección
—————- ———— ———— ———— ———— ————
eth0 192.168.138.36 192.168.138.0 192.168.138.1 0.0.0.0 00: 30: 48: 28: E7: 36
eth1 192.168.137.36 192.168.137.0 192.168.138.1 0.0.0.0 00: 30: 48: 28: E7: 37

Información de la interfaz para el nodo "gentic"
Dirección Nombre de interfaz de puerta de enlace IP de subred de subred Puerta de enlace predeterminada Dirección de hardware
—————- ———— ———— ———— ———— ————
eth0 192.168.138.35 192.168.138.0 192.168.138.1 0.0.0.0 00: 30: 48: 29: BD: E8
eth1 192.168.137.35 192.168.137.0 192.168.138.1 0.0.0.0 00: 30: 48: 29: BD: E9

Compruebe: la conectividad de nodo de subred "192.168.138.0"
Fuente Destino conectado?
—————————— —————————— —————-
bodega: eth0 gentic: eth0 Sí
Resultado: comprobación de conectividad de nodo pasa por subred "192.168.138.0" con el nodo (s) bodega, la genetica.

Compruebe: la conectividad de nodo de subred "192.168.137.0"
Fuente Destino conectado?
—————————— —————————— —————-
bodega: eth1 gentic: eth1 sí
Resultado: comprobación de conectividad de nodo pasa por subred "192.168.137.0" con el nodo (s) bodega, la genetica.

Interfaces encontrado en la subred "192.168.138.0" que son candidatos probables para una interconexión privada:
bodega eth0: 192.168.138.36
eth0 gentic: 192.168.138.35

Interfaces encontrado en la subred "192.168.137.0" que son candidatos probables para una interconexión privada:
bodega eth1: 192.168.137.36
eth1 gentic: 192.168.137.35

ADVERTENCIA:
No se pudo encontrar un conjunto adecuado de interfaces para VIPs.

Resultado: comprobación de conectividad nodo pasado.

Comprobación de los requisitos del sistema para «SIR».

Compruebe: Memoria total
Nombre de nodo disponible necesaria comentario
———— ———————— ———————— ———-
gentic 1.98GB (2075156KB) 1 GB (1048576KB) pasado
1010.61MB bodega (1034860KB) 1 GB (1048576KB) fracasó
Resultado: comprobación de la memoria total falló.

Compruebe: Espacio libre en disco en "/ tmp" dir
Nombre de nodo disponible necesaria comentario
———— ———————— ———————— ———-
gentic 20.47GB (21460692KB) 400 MB (409600KB) pasado
bodega de 19.1GB (20027204KB) 400 MB (409600KB) pasado
Resultado: comprobación del espacio libre en disco pasó.

Compruebe: El espacio de intercambio
Nombre de nodo disponible necesaria comentario
———— ———————— ———————— ———-
gentic 2.44GB (2555896KB) 1,5 GB (1572864KB) pasado
bodega 2.44GB (2562356KB) 1,5 GB (1572864KB) pasado
Resultado: El espacio de intercambio de verificación aprobada.

Compruebe: Arquitectura del sistema
Nombre de nodo disponible necesaria comentario
———— ———————— ———————— ———-
i686 i686 Gentic pasaron
i686 i686 bodega pasaron
Resultado: el sistema de verificación arquitectura pasó.

Compruebe: Versión de kernel
Nombre de nodo disponible necesaria comentario
———— ———————— ———————— ———-
gentic 2.6.18-8.el5PAE 2.6.9 pasó
2.6.18-8.el5PAE bodega 2.6.9 pasado
Resultado: Kernel versión cheque pasado.

Compruebe: la existencia del paquete de "Maquillaje de 3,81"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
gentic maquillaje 3,81-1,1 pasado
bodega de maquillaje 3,81-1,1 pasado
Resultado: Paquete de verificación existencia pasó para "Maquillaje de 3,81".

Compruebe: la existencia del paquete de "Binutils-2.17.50.0.6"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
Pasaron binutils-2.17.50.0.6-2.el5 Gentic
Pasaron binutils-2.17.50.0.6-2.el5 bodega
Resultado: Paquete de verificación existencia pasó para "Binutils-2.17.50.0.6".

Compruebe: la existencia del paquete de "gcc-4.1.1"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
gentic gcc-4.1.1-52.el5 pasado
bodega gcc-4.1.1-52.el5 pasado
Resultado: Paquete de verificación existencia pasó para "gcc-4.1.1".

Compruebe: la existencia del paquete de "libaio-0.3.106"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
gentic libaio-0.3.106-3.2 pasado
bodega libaio-0.3.106-3.2 pasado
Resultado: Paquete de verificación existencia pasó para "libaio-0.3.106".

Compruebe: la existencia del paquete de "libaio-desa-0.3.106"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
gentic libaio-desa-0.3.106-3.2 pasado
bodega libaio-desa-0.3.106-3.2 pasado
Resultado: Paquete de verificación existencia pasó para "libaio-desa-0.3.106".

Compruebe: la existencia del paquete de "libstdc ++ – 4.1.1"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
gentic libstdc ++ – 4.1.1-52.el5 pasó
bodega libstdc ++ – 4.1.1-52.el5 pasado
Resultado: Paquete de verificación existencia pasó para "libstdc ++ – 4.1.1".

Compruebe: la existencia del paquete de "elfutils-libelf-desa-0.125"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
Gentic elfutils-libelf-desa-0.125-3.el5 pasado
bodega elfutils-libelf-desa-0.125-3.el5 pasado
Resultado: Paquete de verificación existencia pasó para "elfutils-libelf-desa-0.125".

Compruebe: la existencia del paquete de "sysstat-7.0.0"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
gentic sysstat-7.0.0-3.el5 pasado
bodega sysstat-7.0.0-3.el5 pasado
Resultado: Paquete de verificación existencia pasó para "sysstat-7.0.0".

Compruebe: la existencia del paquete de "compat-libstdc ++ – 33-3.2.3"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
gentic compat-libstdc ++ – 33-3.2.3-61 pasó
bodega compat-libstdc ++ – 33-3.2.3-61 pasado
Resultado: Paquete de verificación existencia pasó para "compat-libstdc ++ – 33-3.2.3".

Compruebe: la existencia del paquete de "libgcc-4.1.1"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
gentic libgcc-4.1.1-52.el5 pasado
bodega libgcc-4.1.1-52.el5 pasado
Resultado: Paquete de verificación existencia pasó para "libgcc-4.1.1".

Compruebe: la existencia del paquete de "libstdc ++ – desa-4.1.1"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
gentic libstdc ++ – desa-4.1.1-52.el5 pasado
libstdc ++ bodega – desa-4.1.1-52.el5 pasado
Resultado: Paquete de verificación existencia pasó para "libstdc ++ – desa-4.1.1".

Compruebe: la existencia del paquete de "unixODBC-2.2.11"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
gentic unixODBC-2.2.11-7.1 pasó
bodega unixODBC-2.2.11-7.1 pasado
Resultado: Paquete de verificación existencia pasó para "unixODBC-2.2.11".

Compruebe: la existencia del paquete de "unixODBC-desa-2.2.11"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
gentic unixODBC-desa-2.2.11-7.1 pasado
bodega unixODBC-desa-2.2.11-7.1 pasado
Resultado: Paquete de verificación existencia pasó para "unixODBC-desa-2.2.11".

Compruebe: la existencia del paquete de "glibc-2,5-12"
Nodo Nombre Comentario sobre el estado
—————————— —————————— —————-
gentic glibc-2,5-12 pasado
bodega de glibc-2,5-12 pasado
Resultado: Paquete de verificación existencia pasó para "glibc-2,5-12".

Compruebe: Grupo de existencia "dba"
Nodo Nombre Comentario sobre el estado
———— ———————— ————————
gentic existe pasó
bodega existe pasó
Resultado: Verificación de la existencia del Grupo pasó de "dba".

Compruebe: Grupo de existencia "oinstall"
Nodo Nombre Comentario sobre el estado
———— ———————— ————————
gentic existe pasó
bodega existe pasó
Resultado: Verificación de la existencia del Grupo pasó de "oinstall".

Compruebe: la existencia de usuarios para "nadie"
Nodo Nombre Comentario sobre el estado
———— ———————— ————————
gentic existe pasó
bodega existe pasó
Resultado: Verificación de la existencia del usuario pasa por "nadie".

Requisitos del sistema fracasó por «SIR»

Pre-registro para la configuración de servicios de clúster no tuvo éxito.
Los cheques no pasan por el nodo siguiente (s): bodega

La comprobación de la memoria fallado en bodega puede ser ignorada.

Asegúrese de que el X11-Server se inicia y se puede llegar.

oraclegt; echo $ DISPLAY
192.168.138.11:0.0

Cargar las claves SSH en la memoria

oraclegt; exec / usr / bin / ssh-agent $ SHELL
oraclegt; / Usr / bin / ssh-add
Identidad añadido: /home/oracle/.ssh/id_rsa (/home/oracle/.ssh/id_rsa)

Iniciar el programa de instalación, asegúrese de que no hay errores que se muestran en la ventana del instalador

A partir de Oracle Universal Installer.

oraclegt; cd / u01 / app / oraInventory
oraclegt; Do
rootgt; ./orainstRoot.sh

El cambio de permisos de / u01 / app / oraInventory al 770.
Cambio de nombre de grupo de / u01 / app / oraInventory a oinstall.
La ejecución de la secuencia de comandos es completa

oraclegt; cd / u01 / app / oraInventory
oraclegt; Do
rootgt; ./orainstRoot.sh

El cambio de permisos de / u01 / app / oraInventory al 770.
Cambio de nombre de grupo de / u01 / app / oraInventory a oinstall.
La ejecución de la secuencia de comandos es completa

rootgt; cd / u01 / app / oracle / CRS
rootgt; ./root.sh

Fecha: 19.09.07 Hora: 10:03:48

De inicio se pondrá en cola a init dentro de los 30 segundos.
La adición de los demonios a inittab
Contar con los demonios de CRS para estar a menos de 600 segundos.
Cluster Servicios de sincronización está activo en estos nodos.
gentic
Cluster Servicios de sincronización es inactivo en estos nodos.
bodega
nodo local comprobación completa. root.sh se ejecutan en los nodos restantes para iniciar los demonios de CRS.

rootgt; cd / u01 / app / oracle / CRS
rootgt; ./root.sh

No hay claves fueron escritos. Parámetro de la fuente force para anular.
-fuerza es destructiva y destruirá cualquier grupo anterior
configuración.
Registro de clúster Oracle para clúster ya se ha inicializado

Fecha: 19.09.07 Hora: 10:10:11

De inicio se pondrá en cola a init dentro de los 30 segundos.
La adición de los demonios a inittab
Contar con los demonios de CRS para estar a menos de 600 segundos.
Cluster Servicios de sincronización está activo en estos nodos.
gentic
bodega
Cluster Servicios de sincronización está activo en todos los nodos.
Esperando el Oracle CRSD y EVMD para iniciar
pila de Oracle CRS se instala y ejecuta en init (1M)
Correr VIPCA (silencio) para configurar nodeapps

Creación de recursos de aplicaciones VIP en (2) nodos.
Creación de recursos de aplicaciones en GSD (2) nodos.
Creación de recursos de aplicaciones en ONS (2) nodos.
A partir de recursos de aplicaciones VIP en (2) nodos.
A partir de recursos de aplicaciones en GSD (2) nodos.
A partir de recursos de aplicaciones en ONS (2) nodos.

Volver al instalador.

La instalación de clúster se ha completado, si reinicia los nodos, se verá que el clúster de ahora se inicia automáticamente con el guión /etc/init.d/S96init.crs. muchos procesos están en marcha y funcionando.

Usted no va a utilizar la opción “Crear base de datos” al instalar el software. Usted, en cambio, crear la base de datos utilizando el Asistente de creación de base de datos (DBCA) después de la instalación.

Crear inicio de Oracle

Crear inicio de Oracle en ambos nodos RAC

rootgt; mkdir -p /u01/app/oracle/product/11.1.0
rootgt; chown -R oráculo: oinstall / u01 / app / oracle / product
rootgt; chmod -R 775 / u01 / app / oracle / product

rootgt; mkdir -p /u01/app/oracle/product/11.1.0
rootgt; chown -R oráculo: oinstall / u01 / app / oracle / product
rootgt; chmod -R 775 / u01 / app / oracle / product

Instalar software de base de datos Oracle

oraclegt; descomprimir linux_11gR1_database.zip
oraclegt; base de datos de CD

Asegúrese de que el X11-Server se inicia y se puede llegar.

oraclegt; echo $ DISPLAY
192.168.138.11:0.0

Cargar las claves SSH en la memoria

oraclegt; exec / usr / bin / ssh-agent $ SHELL
oraclegt; / Usr / bin / ssh-add
Identidad añadido: /home/oracle/.ssh/id_rsa (/home/oracle/.ssh/id_rsa)

Iniciar el programa de instalación, asegúrese de que no hay errores que se muestran en la ventana del instalador

oraclegt; cd /u01/app/oracle/product/11.1.0
oraclegt; Do
rootgt; ./root.sh

El proceso de creación del oyente TNS sólo necesita ser realizado en un nodo del clúster. Todos los cambios se hacen y se replican en todos los nodos del clúster. En uno de los nodos que aparezca la NETCA y ejecutar a través del proceso de creación de un nuevo proceso de escucha TNS y también configurar el nodo de acceso local.

  • Elija Configuración Listener (listener.ora), Añadir, Nombre Oyente: OYENTE
  • Elija Configuración de métodos de nomenclatura (sqlnet.ora), de nombres local
  • Configuración del Nombre del Servicio de Red local (tnsnames.ora), Añadir, Nombre de servicio = AKA, TCP, nombre de host = gentic, Puerto = 1521

LISTENER.ORA en el Host Gentic

LISTENER_Gentic =
(DESCRIPTION_LIST =
(DESCRIPTION =
(DIRECCIÓN = (PROTOCOL = TCP) (HOST = gentic-vip) (PORT = 1521) (IP = PRIMERO))
(DIRECCIÓN = (PROTOCOL = TCP) (HOST = 192.168.138.35) (PORT = 1521) (IP = PRIMERO))
)
)

SID_LIST_LISTENER_Gentic =
(SID_LIST =
(SID_DESC =
(SID_NAME = PLSExtProc)
(ORACLE_HOME = /u01/app/oracle/product/11.1.0)
(PROGRAMA = extproc)
)
)

LISTENER.ORA en Bodega anfitrión

LISTENER_CELLAR =
(DESCRIPTION_LIST =
(DESCRIPTION =
(DIRECCIÓN = (PROTOCOL = TCP) (HOST = bodega-vip) (PORT = 1521) (IP = PRIMERO))
(DIRECCIÓN = (PROTOCOL = TCP) (HOST = 192.168.138.36) (PORT = 1521) (IP = PRIMERO))
)
)

SID_LIST_LISTENER_CELLAR =
(SID_LIST =
(SID_DESC =
(SID_NAME = PLSExtProc)
(ORACLE_HOME = /u01/app/oracle/product/11.1.0)
(PROGRAMA = extproc)
)
)

TNSNAMES.ORA en ambos nodos

También conocido como =
(DESCRIPTION =
(DIRECCIÓN = (PROTOCOL = TCP) (HOST = gentic-vip) (PORT = 1521))
(DIRECCIÓN = (PROTOCOL = TCP) (HOST = bodega-vip) (PORT = 1521))
(LOAD_BALANCE = sí)
(CONNECT_DATA =
(SERVER = DEDICATED)
(SERVICE_NAME = AKA.WORLD)
(Failover_mode =
(TIPO = SELECT)
(MÉTODO BÁSICO =)
(Intentos = 180)
(RETARDO = 5)
)
)
)

AKA2 =
(DESCRIPTION =
(DIRECCIÓN = (PROTOCOL = TCP) (HOST = bodega-vip) (PORT = 1521))
(CONNECT_DATA =
(SERVER = DEDICATED)
(SERVICE_NAME = AKA.WORLD)
(INSTANCE_NAME = AKA2)
)
)

AKA1 =
(DESCRIPTION =
(DIRECCIÓN = (PROTOCOL = TCP) (HOST = gentic-vip) (PORT = 1521))
(CONNECT_DATA =
(SERVER = DEDICATED)
(SERVICE_NAME = AKA.WORLD)
(INSTANCE_NAME = AKA1)
)
)

LISTENERS_AKA =
(ADDRESS_LIST =
(DIRECCIÓN = (PROTOCOL = TCP) (HOST = gentic-vip) (PORT = 1521))
(DIRECCIÓN = (PROTOCOL = TCP) (HOST = bodega-vip) (PORT = 1521))
)

EXTPROC_CONNECTION_DATA =
(DESCRIPTION =
(ADDRESS_LIST =
(DIRECCIÓN = (PROTOCOL = IPC) (KEY = EXTPROC0))
)
(CONNECT_DATA =
(SID = PLSExtProc)
(PRESENTACIÓN = RO)
)
)

Sqlnet.ora en ambos nodos

Start / Stop Oyente

oracle @ genticgt; srvctl detener oyente -n -l gentic LISTENER_GENTIC
oracle @ genticgt; srvctl comenzar oyente -n -l gentic LISTENER_GENTIC

oracle @ cellargt; srvctl detener oyente -n -l gentic LISTENER_CELLAR
oracle @ cellargt; srvctl comenzar oyente -n -l gentic LISTENER_CELLAR

La siguiente tabla muestra la ruta de los archivos correspondientes

Compruebe los Archivos de Registro en:
/ U01 / app / oracle / cfgtoollogs / dbca / También conocido como

261644 Sep 29 de 13:42 apex.log
10513 29 de Sep 12:31 context.log
0 Sep 29 de 13:42 CreateClustDBViews.log
534782 Sep 29 de 12:22 CreateDBCatalog.log
442 Sep 29 de 11:46 createdb.log
12971 29 de Sep 12:55 cwmlite.log
170921 Sep 29 de 13:50 emConfig.log
222385 Sep 29 de 13:20 emRepository.log
5496 Sep 29 de 12:50 interMedia.log
3858 Sep 29 de 12:29 JServer.log
267 Sep 29 de 13:43 lockAccount.log
562 Sep 29 de 12:38 ordinst.log
357 Sep 29 de 13:42 owb.log
65 Sep 18:04 29 de postDBCreation.log
27283 29 de Sep 13:05 spatial.log
174 Sep 29 de 12:22 sqlPlusHelp.log
1439857 Sep 29 de 18:05 trace.log
1518 Sep 29 de 13:43 ultraSearchCfg.log
7518 Sep 29 de 13:06 ultraSearch.log
30140 29 de Sep 12:38 xdb_protocol.log

Verificar base de datos creada

los srvctl utilidad muestra la configuración actual y el estado de la base de datos RAC.

configuración de pantalla para la base de datos de clúster conocido como

oracle @ genticgt; base de datos de configuración srvctl -d También conocido como
gentic AKA1 /u01/app/oracle/product/11.1.0
/u01/app/oracle/product/11.1.0 AKA2 bodega

Estado de todas las instancias y servicios

oracle @ genticgt; base de datos de estado srvctl -d También conocido como
Instancia AKA1 se está ejecutando en el nodo gentic
Instancia AKA2 se está ejecutando en el nodo bodega

Estado de las solicitudes de nodo en un nodo particular

oracle @ genticgt; estado srvctl nodeapps gentic -n
VIP se está ejecutando en el nodo: gentic
GSD se está ejecutando en el nodo: gentic
Oyente se está ejecutando en el nodo: gentic
ONS demonio está en ejecución en el nodo: gentic

Mostrar la configuración para las aplicaciones de nodo – (VIP, GSD, el ONS, Oyente)

oracle @ genticgt; srvctl config nodeapps -n gentic -a -g -s -l
existe VIP. /gentic-vip/192.168.138.130/255.255.255.0/eth0
existe GSD.
existe ONS demonio.
existe oyente.

Todas las instancias que se ejecutan en el clúster

inst_id SELECT,
instance_number,
nombre de instancia,
paralela,
estado,
database_status,
active_state,
acogida nombre_de_equipo
De GV $ instancia
ORDER BY inst_id;

INST_ID instance_number INSTANCE_NAME PAR DE ESTADO DATABASE_STATUS ACTIVE_ST HOST
———- ————— —————- — ———— —————– ——— ——–
1 1 AKA1 SÍ abrir Active gentic NORMAL
2 2 AKA2 SÍ abrir Active bodega NORMAL

SELECT nombre FROM v $ datafile
UNIÓN
miembro de seleccionar de v $ logfile
UNIÓN
SELECT nombre FROM v $ controlfile
UNIÓN
SELECT nombre FROM V $ archivo temporal;

NOMBRE
————————————–
/u01/oradat/AKA/control01.ctl
/u01/oradat/AKA/control02.ctl
/u01/oradat/AKA/control03.ctl
/u01/oradat/AKA/redo01.log
/u01/oradat/AKA/redo02.log
/u01/oradat/AKA/redo03.log
/u01/oradat/AKA/redo04.log
/u01/oradat/AKA/sysaux01.dbf
/u01/oradat/AKA/system01.dbf
/u01/oradat/AKA/temp01.dbf
/u01/oradat/AKA/undotbs01.dbf
/u01/oradat/AKA/undotbs02.dbf
/u01/oradat/AKA/users01.dbf

La vista V $ ACTIVE_INSTANCES también puede mostrar el estado actual de los casos.

SELECT * FROM v $ active_instances;

Por último, los $ GV le permiten mostrar la información global para toda la RAC.

inst_id SELECT, nombre de usuario, sid, serial #
De GV $ sesión
WHERE nombre de usuario IS NOT NULL;

INST_ID NOMBRE DE USUARIO DE SERIE SID #
———- —————————— ———- ———-
1 SISTEMA 113 137
1 114 264 DBSNMP
1 116 27 DBSNMP
1 118 4 SYSMAN
1 121 11 SYSMAN
1 124 25 SYSMAN
1 SYS 125 18
1 126 14 SYSMAN
1 SYS 127 7
1 128 370 DBSNMP
1 SYS 130 52
1 SYS 144 9
1 SISTEMA 170 608
2 117 393 DBSNMP
2 SISTEMA 119 1997
2 123 53 SYSMAN
2 124 52 DBSNMP
2 SYS 127 115
2 SYS 128 126
2 129 771 SYSMAN
2 134 18 SYSMAN
2 DBSNMP 135 5
2 146 42 SYSMAN
2 170 49 SYSMAN

Iniciar la Consola de Enterprise Manager

La Consola Enterprise Manager es compartida por todo el conjunto, en nuestro ejemplo se escucha en el

Detención del Medio Ambiente RAC 11g de Oracle

En este punto, hemos instalado y configurado Oracle 11g RAC por completo y tienen una base de datos en clúster completamente funcional.
Todos los servicios – incluyendo software de clúster Oracle, todas las instancias de Oracle Enterprise Manager Database consola se iniciará automáticamente en cada reinicio de los nodos de Linux.

Hay veces, sin embargo, cuando es posible que desee parar un nodo e inicie manualmente una copia de seguridad. O es posible que Enterprise Manager no está en ejecución y deberá volver a empezar.

oracle @ genticgt; emctl parada dbconsole
oracle @ genticgt; srvctl detener la instancia -D AKA1 También conocido como -i
oracle @ genticgt; srvctl detener nodeapps -n gentic

oracle @ cellargt; emctl parada dbconsole
oracle @ cellargt; srvctl detener la instancia -D AKA2 También conocido como -i
oracle @ cellargt; parada srvctl nodeapps bodega -n

Inicio del Medio Ambiente RAC 11g de Oracle

El primer paso es iniciar las aplicaciones de nodo (IP virtual, GSD, TNS Listener, y ONS). Cuando las aplicaciones de nodo se inician con éxito, a continuación, abrir la instancia de Oracle (y servicios relacionados) y la consola de base de datos de Enterprise Manager.

oracle @ genticgt; srvctl comenzar nodeapps -n gentic
oracle @ genticgt; srvctl iniciar la instancia -d -i También conocido como AKA1
oracle @ genticgt; emctl comenzar dbconsole

oracle @ cellargt; srvctl comenzar nodeapps -n bodega
oracle @ cellargt; srvctl iniciar la instancia -d -i También conocido como AKA2
oracle @ cellargt; emctl comenzar dbconsole

Iniciar / detener todas las instancias con srvctl

Iniciar / detener todas las instancias y sus servicios habilitados

oracle @ genticgt; srvctl iniciar la base de datos -d También conocido como
oracle @ genticgt; base de datos de parada srvctl -d También conocido como

Al considerar la disponibilidad de la base de datos de Oracle, Oracle 11g RAC proporciona una solución superior con sus mecanismos de failover avanzado. Oracle RAC 11g incluye los componentes necesarios que todo el trabajo dentro de una configuración en clúster responsables de proporcionar una disponibilidad continua; cuando uno de los sistemas participantes fallan dentro del clúster, los usuarios se migran automáticamente a los demás sistemas disponibles.

Un componente importante de Oracle 11g RAC que es responsable del procesamiento de conmutación por error es la Aplicación de conmutación por error transparente opción (TAF). Todas las conexiones de base de datos (y procesos) que pierden conexiones se vuelven a conectar a otro nodo dentro de la agrupación. La conmutación por error es completamente transparente para el usuario.

Una nota importante es que TAF ocurre de forma automática dentro de las bibliotecas OCI. Por lo tanto su aplicación (cliente) de código no tiene que cambiar con el fin de tomar ventaja de los TAF. Ciertos pasos de configuración, sin embargo, tendrán que hacerse en el archivo de Oracle TNS tnsnames.ora.

Configuración del archivo tnsnames.ora en el cliente de Oracle (Host VIPER)

Antes de la demostración de TAF, necesitamos comprobar que existe una entrada válida en el archivo tnsnames.ora en una máquina cliente no RAC. Asegúrese de que tiene instalado el software de Oracle RDBMS. Para nuestra prueba utilizamos un Oracle 10.2.0.3 no RAC Client. Compruebe que el siguiente servicio conocido como se incluye en el archivo tnsnames.ora en el cliente para no RAC.

También conocido como =
(DESCRIPTION =
(DIRECCIÓN = (PROTOCOL = TCP) (HOST = gentic-vip) (PORT = 1521))
(DIRECCIÓN = (PROTOCOL = TCP) (HOST = bodega-vip) (PORT = 1521))
(LOAD_BALANCE = sí)
(CONNECT_DATA =
(SERVER = DEDICATED)
(SERVICE_NAME = AKA.WORLD)
(Failover_mode =
(TIPO = SELECT)
(MÉTODO BÁSICO =)
(Intentos = 180)
(RETARDO = 5)
)
)
)

Configuración del archivo sqlnet.ora en el cliente de Oracle (VIPER Host)

Asegúrese, que será utilizado tnsnames.ora en el cliente de Oracle.

Nuestra prueba se inicia desde el VIPER cliente no RAC donde está instalado Oracle 10.2.0.3

oracle @ vipergt; de ping-vip gentic
PING gentic-vip (192.168.138.130) 56 (84) bytes de datos.
64 bytes de la genetica-vip (192.168.138.130): icmp_seq = 1 TTL = 64 tiempo = 2,17 ms
64 bytes de la genetica-vip (192.168.138.130): icmp_seq = 2 TTL = 64 tiempo = 1,20 ms

oracle @ vipergt; de ping-bodega vip
PING bodega-vip (192.168.138.131) 56 (84) bytes de datos.
64 bytes de la bodega-vip (192.168.138.131): icmp_seq = 1 TTL = 64 tiempo = 2.41 ms
64 bytes de la bodega-vip (192.168.138.131): icmp_seq = 2 TTL = 64 tiempo = 1.30 ms

Consulta SQL para comprobar la información de conmutación por error de la Sesión

La siguiente consulta SQL se puede utilizar para verificar el tipo de conmutación por error de una sesión, el método de conmutación por error, y si se ha producido una conmutación por error. Vamos a utilizar esta consulta a través de este ejemplo.

Conectado a:
Oracle Database 11g Enterprise Edition Release 11.1.0.6.0 – Producción
Con la división, Real Application Clusters, OLAP, Data Mining
y opciones de pruebas Real Application

SQLgt; doOLUMNA a13 nombre_instancia FORMATO
COLUMNA nombre_de_equipo FORMATO a9
COLUMNA failover_method FORMATO A15
COLUMNA failed_over FORMATO A11

SELECT DISTINCT
v.instance_name AS nombre_instancia,
v.host_name AS nombre_de_equipo,
s.failover_type AS failover_type,
s.failover_method AS failover_method,
s.failed_over AS failed_over
DESDE $ v instancia v, v $ session s
DONDE s.username = “sistema”;

FAILED_OVER INSTANCE_NAME HOST_NAME FAILOVER_TYPE FAILOVER_METHOD
————- ——— ————- ————— ———–
AKA2 bodega selecciona Básica NO

Podemos ver, que estamos conectados a la AKA2 Instancia, que se ejecuta en bodega. Ahora nos detenemos este caso sin desconectarse de VIPER.

oracle @ cellargt; base de datos de estado srvctl -d También conocido como
Instancia AKA1 se está ejecutando en el nodo gentic
Instancia AKA2 se está ejecutando en el nodo bodega

oracle @ cellargt; srvctl detener la instancia -d -i También conocido como AKA2 -o aborto
oracle @ cellargt; base de datos de estado srvctl -d También conocido como
Instancia AKA1 se está ejecutando en el nodo gentic
Instancia AKA2 no se ejecuta en el nodo bodega

Ahora vamos a volver a nuestra sesión de SQL en VIPER y vuelva a ejecutar la sentencia SQL:

SQLgt; COLUMNA nombre_instancia FORMATO a13
COLUMNA nombre_de_equipo FORMATO a9
COLUMNA failover_method FORMATO A15
COLUMNA failed_over FORMATO A11

SELECT DISTINCT
v.instance_name AS nombre_instancia,
v.host_name AS nombre_de_equipo,
s.failover_type AS failover_type,
s.failover_method AS failover_method,
s.failed_over AS failed_over
DESDE $ v instancia v, v $ session s
DONDE s.username = “sistema”;

FAILED_OVER INSTANCE_NAME HOST_NAME FAILOVER_TYPE FAILOVER_METHOD
————- ——— ————- ————— ———–
AKA1 gentic SELECCIONAR básica Sí

Podemos ver que la sesión anterior ahora se ha conmutado por error a la instancia AKA1 en Gentic.

A continuación, presentamos algunos datos importantes alrededor de la arquitectura RAC.

bases de datos Oracle RAC difieren arquitectónicamente de instancia única bases de datos Oracle en el que cada instancia de base de datos Oracle RAC también tiene:

– Al menos un hilo adicional de hacer de nuevo para cada instancia
– Una deshacer de tablas específico de la instancia (hay 2 espacios de tabla de deshacer para un RAC 2-Node)

Todos los archivos de datos, archivos de control SPFILEs, y rehacer los archivos de registro en entornos Oracle RAC deben residir en discos compartidos con clústeres de modo que todas las instancias de base de clúster puede acceder a estos componentes de almacenamiento.

Oracle recomienda que utilice un archivo de parámetros del servidor compartido (SPFILE) con entradas específicas de cada instancia. Alternativamente, se puede utilizar un sistema de archivos local para almacenar los archivos de parámetros específicos de la instancia (PFiles).

Nos encontramos con los siguientes problemas durante nuestra instalación

Asegúrese de que el nombre de host durante la instalación de SSH son equivalencia de usuario de forma idéntica en / etc / hosts. $ HOME / .ssh / authorized_keys y $ HOME / .ssh / known_hosts. Por ejemplo, si un host se llama gentic en un archivo y gentic.localhost en otro archivo, la instalación fallará.

Nos dimos cuenta, que es extremadamente difícil de configurar una base de datos en clúster con los scripts generados desde el DBCA. La base de datos puede ser creado, pero es difícil para registrarlo en el software de cluster utilizando SVCTL.

PUESTOS RELACIONADOS

  • Oracle Responsys, guía de relaciones.

    Crea potentes Experiencias Cross-Channel con el programa de la lona Eliminar la ejecución Siloed marketing. Una lona, ​​todos los canales, cada equipo. Evitar el viaje a ninguna parte ….

  • Oracle Real Application Clusters …

    Oracle Real Application Clusters Oracle Real Application Clusters son un gran apoyo para agrupar las bases de datos de Oracle que pueden ser útiles para almacenar y mantener los varios…

  • Formulario de solicitud en línea – Aplicaciones …

    Carreras de las tiendas . Las personas que buscan las oportunidades de empleo en el sector del comercio minorista que pueden hacer carrera con Dollar Tree. Puede encontrar los trabajos de…

  • Las clases de formación en línea de Oracle RAC …

    ¿Cuál es la formación personalizada? formación a medida significa según sus necesidades, que le proporcionará la formación en línea. KernelTraining ofrece soluciones personalizadas de formación…

  • Oracle 11g Real Application Clusters …

    Módulo 00: Parte 1 Formación en línea de Oracle Real Application Clusters – Introducción al curso Módulo 01: Resumen Real Application Cluster Lo que es Real Application Clusters ¿Por qué…

  • guía de identificación de plantas

    PLANTAS Keys ID Interactive: Introducción Automatizado de datos Clave disponible para uso y Testing A diferencia de una clave de identificación de la planta tradicional que le ofrece sólo dos…

También te podría gustar...