segunda-feira, 7 de dezembro de 2015

make intelligent graphics for Oracle Performance

On these tutorial we create some graphs for view oracle performance problems and IO .

First step is install oracle docker on Oracle Linux - 6 or 7. My case i going to study hard to get OCP on linux, and now we use Oracle Linux 7.2, please follow:


To install Docker on Oracle Linux 6:

  1. Enable the ol6_addons channel in /etc/yum.repos.d/public-yum-ol6.repo
  2. Run:
    yum install docker 

To install Docker on Oracle Linux 7:

  1. Enable the ol7_addons channel in /etc/yum.repos.d/public-yum-ol7.repo
  2. Run:
    yum install docker 

Enable btrfs support

Docker uses device-mapper devices as the default storage engine. To switch to using btrfs as the storage engine, ensure that /var/lib/docker is mounted on a btrfs filesystem. Check Chapter 5 of the Oracle Linux Administrator's Solutions Guide for more details on how to create and mount btrfs filesystems.
To enable btrfs support for Docker on Oracle Linux:
  1. Ensure that /var/lib/docker is on a btrfs filesystem
  2. Edit /etc/sysconfig/docker and add "-s btrfs" to the other_args fields.
  3. Restart the Docker daemon:
    # service docker restart

Enabling and starting Docker

To enable the Docker daemon on system boot and start Docker on OL6:
# chkconfig docker on
# service docker start
To enable the Docker daemon on system boot and start Docker on OL7:
# systemctl enable docker.service
# systemctl start docker.service

      Checking Docker status

      To check that Docker is up and running on OL6:
      # service docker status
      To check that Docker is up and running on OL7:
      # systemctl status docker.service
      You can also get more information from Docker itself:
      # docker info
      # docker version
      Once you have Docker up and running, follow the upstream Docker documentation to get started. 

      Next step is to get my docker on next post!

      Clique aqui para continuar lendo este post...

      Make oracle linux 7 suitable to install oracle database

      We start with installation of packages

      Confirm if you install have minimal 16G swap cache, on system.

      free -m

      Almost installations have a minimal of 16G for swap, my system for example have a 128G memory - recently many docs confirms 16G of swap is ok for all memory configurations.

      Make the update for the entire system, update the packages you made this commands below like a root.

      yum update
      yum install oracle-rdbms-server-11gR2-preinstall.x86_64

      Change the user oracle password:

      passwd oracle

      Please verify the security by selinux files, modify this entry:


      modify to 


      attention: do not confuse this line, pay attention.

      reboot the system

      If you not reboot the system you receive messages like, permission denied to disable services below.

      And stop the services, because this services is consuming memory and resources (cpu).

      systemctl stop firewalld
      systemctl stop iptables
      systemctl disable firewalld
      systemctl disable iptables
      systemctl disable atd
      systemctl disable bluetooth
      systemctl disable postfix
      systemctl disable sound
      systemctl disable anacron 
      systemctl disable atd 
      systemctl disable cups 
      systemctl disable cups-config-daemon 
      systemctl disable gpm 
      systemctl disable iptables 
      systemctl disable kudzu 
      systemctl disable lvm2-monitor 
      systemctl disable microcode_ctl 
      systemctl disable sendmail 
      systemctl disable smartd 
      systemctl disable auditd 
      systemctl disable avahi-daemon 
      systemctl disable bluetooth 
      systemctl disable firstboot 
      systemctl disable hidd 
      systemctl disable ip6tables 
      systemctl disable mcstrans 
      systemctl disable mdmonitor 
      systemctl disable pcscd 
      systemctl disable rawdevices 
      systemctl disable readahead_early 
      systemctl disable readahead_later 
      systemctl disable restorecond 
      systemctl disable setroubleshoot 
      systemctl disable yum-updatesd 
      systemctl disable nfs 
      systemctl disable autofs on
      systemctl disable cpuspeed on
      systemctl disable haldaemon on
      systemctl disable irqbalance on
      systemctl disable messagebus on
      systemctl disable netfs on
      systemctl disable nfslock on
      systemctl disable rpcgssd on
      systemctl disable rpcidmapd on
      systemctl disable portmap on

      The old model (before Oracle Linux 7 or RHEL 7)

      chkconfig anacron off
      chkconfig atd off
      chkconfig cups off
      chkconfig cups-config-daemon off
      chkconfig gpm off
      chkconfig iptables off
      chkconfig kudzu off
      chkconfig lvm2-monitor off
      chkconfig microcode_ctl off
      chkconfig sendmail off
      chkconfig smartd off
      chkconfig auditd off
      chkconfig avahi-daemon off
      chkconfig bluetooth off
      chkconfig firstboot off
      chkconfig hidd off
      chkconfig ip6tables off
      chkconfig mcstrans off
      chkconfig mdmonitor off
      chkconfig pcscd off
      chkconfig rawdevices off
      chkconfig readahead_early off
      chkconfig readahead_later off
      chkconfig restorecond off
      chkconfig setroubleshoot off
      chkconfig yum-updatesd off
      chkconfig nfs off
      chkconfig autofs on
      chkconfig cpuspeed on
      chkconfig haldaemon on
      chkconfig irqbalance on
      chkconfig messagebus on
      chkconfig netfs on
      chkconfig nfslock on
      chkconfig rpcgssd on
      chkconfig rpcidmapd on
      chkconfig portmap on

      Reboot the system for this services not startup again.

      su - oracle

      and create .bash_profile

      add this on your file:

      echo "###############################################"
      echo "#         BANCO     SCRIPT    AMBIENTE        #"
      echo "###############################################"

      export ORACLE_SID=prd
      export ORACLE_BASE=/u01/app/oracle
      export ORACLE_HOME=/u01/app/oracle/product/11.2.0/dbhome_1
      export PATH=$ORACLE_HOME/bin:$PATH
      export ORACLE_UNQNAME=prd

      Clique aqui para continuar lendo este post...

      terça-feira, 17 de novembro de 2015

      Oracle RAC startup with oracle user two instances fail with disconected error

      On these days we get on strange error:

      The instance startup normally with srvctl but with sqlplus we get the disconected instance.

      we have two diferente users: grid and oracle

      With user oracle we try to startup the instances. But just one can stay up.



      sqlplus / as sysdba

      sql> startup mount
      sql> select status from v$instance;

      Instance: STARTED


      sqlplus / as sysdba

      sql> startup mount
      sql> select status from v$instance;

      Instance:  disconected from instance

      The second instance get down and not work. I just clear the two alert logs, and restart the processes, and now with srvctl.

      srvrctl start database instance -d ORCL

      Yes, we can connect on both instances. But if i tryed to start the instances with user oracle we no have success.

      Just we got the solution:

      On user oracle, a just added the ORA_CRS_HOME=/u01/app/11.2.0/grid on .bash_profile,

      and restart with sqlplus and is ok now the two instances get up without problems.

      The key os solution this entry on alert log on instance get dow:

      [USER(32704)]CRS-2317:Fatal error: cannot get local GPnP security keys (wallet). 
      2015-11-17 15:58:54.552
      [USER(32704)]CRS-2316:Fatal error: cannot initialize GPnP, CLSGPNP_ERR (Generic GPnP error). 
      kggpnpInit: failed to init gpnp
        WARNING: No cluster interconnect has been specified. Depending on
                 the communication driver configured Oracle cluster traffic
                 may be directed to the public interface of this machine.
                 Oracle recommends that RAC clustered databases be configured
                 with a private interconnect for enhanced security and
      Picked latch-free SCN scheme 3
      Using LOG_ARCHIVE_DEST_1 parameter default value as USE_DB_RECOVERY_FILE_DEST
      WARNING: db_recovery_file_dest is same as db_create_file_dest
      Autotune of undo retention is turned on. 
      SYS auditing is disabled
      Clique aqui para continuar lendo este post...

      domingo, 28 de junho de 2015

      Flex ASM

        Um dos problemas que temos ao utilizar o ASM e que, nas versoes anteriores a versao 12c, temos que instalar a instancia ASM em cada local onde sera consumido dos diskgroups.

      Temos entao o Flex ASM e para a clusterizacao temos que utilizar o Flex Clusters.


      Flex ASM nao requer Flex Cluster
      Flex ASM roda como um servico para cluster padrao para atender clientes atraves do cluster.
      Flex ASM pode rodar como um hub de conexao para atender aos servicos de Flex Cluster atraves de nos de HUBs de Flex Cluster.
      O Flex ASM tem menor gastos de recursos ja que o mesmo nao precisa da instancia ASM
      Flex ASM introduz uma nova rede para que os clientes e as instancias ASM possam se comunicar nessa rede

      Como ocorre a conexao:

      Cada servidor contendo o banco de dados oracle ira configurar o local_listener apontando para o listener existente no servidor que roda a instancia ASM com seu devido Listener, sendo que o parametro local_listener do banco pode ser configurado para ate 3 listener.

      As instancias ASM sao desenvolvidas para que tenhamos o minimo de monitoramento o possivel. Portanto sempre que possivel a recomentacao e utilizar o parametro memory_target. O calculo e feito na hora da criacao da instancia ASM baseando-se no numero de cores dos processadores e a quantidade de memoria disponivel. Atualmente o valor minimo e de 1076M para o memory_target.


      $ srvctl status asm -detail
      ASM is running on host03,host02,host01 ASM is enabled.
      $ srvctl stop asm -node host03 -f
      $ srvctl start asm -node host04

      $ srvctl status asm -detail
      ASM is running on host04,host02,host01
      ASM is enabled.
      $ srvctl relocate asm -currentnode host04 -targetnode host03 $ srvctl status asm -detail
      ASM is running on host03,host02,host01
      ASM is enabled. 

      $ srvctl stop asm -proxy -node host03 
      $ srvctl start asm -proxy -node host04


      A cardinalidade para as instancias ASM, informa qual e a quantidade de instancias ASM servindo o cluster ASM.

      $ srvctl config asm
      ASM home: /u01/app/12.1.0/grid

      Password file: +DATA/orapwASM
      ASM listener: LISTENER
      ASM instance count: 3
      Cluster ASM listener: ASMNET1LSNR_ASM

      Para consultar quais sao os clientes que estao consumindo as instancias, utilizamos a gv$asm_client.

      Para visualizar quais instancias estao fazendo o atendimento, faca a consulta abaixo:

      Os clientes podem ser realocados, isso ja ocorre automaticamente caso a instancia ASM falhe. Mas atraves do novo comando abaixo, podemos realocar o cliente. Geralmente voce executa este comando para tentar realocar os clientes para outra instancia ASM.

      SQL> ALTER SYSTEM RELOCATE CLIENT '<instance_name>:<db_name>';

      O cliente sera desconectado e provavelmente ao se conectar novamente, ira se conectar na instancia ASM que ja estava conectado. Para evitar que isso ocorra, derrube a instancia ASM logo apos realocar todos clientes.

      Quando os discos estao entregues para serem consumidos pelos diskgroups temos os seguintes status:

      CANDIDATE - Disco recentemente criado, este disco nunca foi usado ainda.
      FORMER - Disco que ja foi usado e removido do diskgroup, esta disponivel novamente para uso.
      PROVISIONED - E similar ao candidate exceto porque o provisionado ainda necessita alguma acao por parte do administrador para disponibilizar este disco.

      Para criar um diskgroup siga o exemplo:


      Cada diskgroup criado, mesmo que nao contenha a clausula failure group, cada disco pertencendo a um diskgroup com redundancia normal ou redundancia high,  cada disco contem uma redundancia, ou seja se eu tiver 10 discos em um diskgroup vamos ter automaticamente 10 failgroups.


      NORMAL - requer no minimo dois failure groups. No exemplo de criacao acima sao dois failure groups criados. Permite a falha de um failure group. Controlfiles armazenados neste tipo de diskgroup espelhado 3 vezes.
      HIGH REDUNDANCY - requer a existencia de tres grupos de falha. Tolerante a perda de dois grupos de falhas.
      EXTERNAL REDUNDANCY - nao tolera falhas, necessita redundancia externa.

      Clique aqui para continuar lendo este post...

      Questao da prova 1Z0-058

      Assuntos das questoes 1Z0-058 sobre as informacoes abaixo:

      1. Sobre os processos do ACFS

      2. Additional processes are started when ADVM volumes are configured.
        • VDBG: The Volume Driver Background process forwards ASM requests to lock or unlock an extent for volume operations to the Dynamic Volume Manager driver. The VDBG is a fatal background process, the termination of this process brings down the ASM instance.
        • VBGn: Volume Background processes wait for requests from the Dynamic Volume Manager driver, which need to be coordinated with the ASM instance. An example of such a request would be opening or closing an ASM volume file when the Dynamic Volume Manager driver receives an open for a volume (possibly due to a file system mount request) or close for an open volume (possibly due to a file system unmount request). The unplanned death of any of these processes does not have an effect on the ASM instance.
        • VMB: Volume Membership Background coordinates cluster membership with the ASM instance. 
            Sobre redundancia do diskgroup

      1. There are always failure groups even if they are not explicitly created. If you do not specify a failure group for a disk, that disk is placed in its own failure group with the failure group name the same as the disk name Therefore, if 20 disks were in a single disk group, there could be 20 failure groups as well. Failure groups have meaning only when used with normal and high redundancy disk groups. All failure groups within the same disk group should be created with the same capacity to avoid space allocation problems.

          Sobre Quiescing no RAC

      Quiescing a database
      For maintenance purposes you may require a database to be quiesed, so that the only connections allowed are as sys or system.  Even users with the DBA role will be excluded.

      This mode is useful for:

      Transactions that would otherwise fail if user transactions access the same object or set of objects.  Things like changing the schema of a database table, or adding a column to an existing table where a no-wait lock is required.

      Multistep procedures, that could confuse application users, if they were still logged on. For example exporting dropping an re-creating a table.
      Quiescing the database will have a similar effect to shutting the database down, and restarting it in restricted mode.  However on a high availability system, you may not be able to shut the database down.  Quiescing would have a smaller impact then the shutdown and restart.

      To place a database into quiesced mode:
      SQL> alter system quiesce restricted;

      Non-DBA active session will continue until they become inactive.  An active session is a session that is inside a transaction or a session that is currently holding shared resources. No inactive sessions are allowed to become active.  When a connected user issues a query, the query will seem to hang until the database is taken out of quiesced state, and the query will then continue.

      Once all of the Non-DBA active sessions have become inactive, then the “SQL> alster system quiesce restricted;” completes, and the database is then in a quiesced state.  In a RAC environment, this statement will affect all the instances, and not just the instance where the statement was issued from.

      While waiting for this statement to process you can query from another session SID(session ID) from v$blocking_quiesce view.  You can join this view with v$session to get more information about the session.
      SQL> select bq.sid, ses.user, ses.osuser, ses.type, ses.program
      From v$blocking_quiesce bq,
                 V$session ses
      Where bq.sid = ses.sid;

      If your session terminates, or you cancel the request to quiesce the database, then the Oracle Database automatically reverses any partial effects of the statement.

      For queries that are carried out by successive OCI(Oracle Call Interface) fetches,  the Oracle database only waits for the first fetch to complete.

      The mechanism works the same for  dedicated and shared server connections.  The user trying to login after the quiesce statement has been issued, will experience it as though the login as hung.  The login will continue again when the database is unquiesced.

      The database will remain in this state, regardless of whether the session that issued the statement is still active or not.  In order to take the database out of this mode a DBA(sys,system) will need to log in and unquiesce the database.  In a RAC environment, the unquiesce statement can even be issued from a different instance.
      SQL> alter system unquiesce;

      A quiesced database is not in the correct state for a cold backup, because the file headers are still being updated.  However an online backup in this state is possible.  

      To view the QUIESCE state of an instance, you can:
      SQL> select active_state from v$instance;
      The possible values returned are:
      ·         NORMAL      - Normal unquiesced state
      ·         QUIESCING - Being quieced, but some non-DBA sessions are still active
      ·         QUESCED     - Quiesced, non non-DBA sessions are active or allowed

      Clique aqui para continuar lendo este post...

      domingo, 10 de maio de 2015

      Particionamento de tabelas Oracle

      O particionamento de tabelas e de indices auxilia no tratamento e na seleção destes dados. Os dados são armazenados em segmentos, e estes segmentos que estão armazenados nessas particoes podem sofrer manutençoes diretamente.

      Para isso temos as seguintes tipos de partições:

      Range - E a mais comum e pelo nome ja diz baseada em cima de um range da chave.
      Hash - A partir de um algoritmo os dados são armazenados nas partições a partir de uma chave de particionamento.
      List - Os dados sao mapeados as particoes a partir de listas.
      Interval - Os dados sao mapeados as particoes a partir de intervalos que são automaticamente criados de acordo com o intervalo.
      System - Os dados sao mapeados as particoes de forma arbitraria - via o programa que os esta tratando.

      Podemos ainda ter uma subparticao, para que possamos ter uma opção de aproveitar ainda mais aquela partição
       ja existente.

      • Range top level: – Range-Range
        – Range-Hash
        – Range-List 
      • List top level:
        – List-Range – List-Hash – List-List 
      • Interval top level: – Interval-Range
        – Interval-Hash – Interval-List
       A chave do particionamento e que comanda, como os dados vão ser inseridos, e cada partição pode ter no máximo 16 colunas como chave. Podemos também fazer os comandos DML e select diretamente a essas chaves. Nenhum dos comandos existentes seja DML ou SELECT precisa ser alterado para que se utilize particionamento.

      Existe um tipo de particionamento que esta baseado no relacionamento das tabelas. Ou seja, pela constraint de chave estrangeira. Ainda, temos também o particionamento que pode ser baseado em uma coluna virtual ou seja calculada.

      Quais sao os beneficios de se utilizar o particionamento ?

      O particionamento automaticamente faz com que o otimizador do oracle exclua as partições que não são interessantes para resolver os comandos. 
      As particoes podem sofrer manutenção diretamente sem ter outras partições comprometidas para os comandos de DML e SELECT.
      As partições vão contribuir diretamente com os recursos de gerenciamento de ciclo de vida da sua informação.
      Voce pode atribuir uma particao a uma tablespace, dai podendo armazenar seus datafiles em locais distintos.

      Varios comandos poderemos executar para realizar a manutenção nas partições:

      A criação de uma tabela particionada pode ser feita usando o comando abaixo:

      create table exemplo
      (idx number, descricao varchar2(2))
      partition by range (idx)
      (partition values less than (0)  tablespace users,
      partition values less than (maxvalue) tablespace users1);

      Operações diretamente nas partições:
      select idx from complex PARTITION (particao1);
      insert into complex PARTITION (particao2) values (4,5);
      delete from complex PARTITION (particao3);
      create table teste as select * from tabela partition(particao1);

      expdp sh/sh tables(SALES:SALES_Q1_20001)

      Dicionario de dados para consultar as partições


      Partition type: default values
      Partitions detail
      Partition keys

      T = Tabela
      P = Particao

        3    FROM USER_TABLES ;
      ---------- --------------- ----------- --------
      HR_EMP                     YES
      MULTICOL                   YES
      ORDINARY   USERS           NO
      SIMPLE                     YES


      ---------- ------ ------- ------- ----------- ----------
      COMPOS     RANGE  HASH          3
      MULTICOL   RANGE  NONE          4
      SIMPLE     LIST   NONE          2
      1 USERS
      2 USERS 
      1 USERS

      Columns to show

      Global index

      create index idx on employees ( first_name )
      global partition by range (first_name)
      ( partition x1 values less than (‘H’) tablespace users, 
        partition x2 values less than (maxvalue) );

      Local index tabela particionada mesmas tablespaces da tabela

      create index idx on employees ( first_name ) local;

      Local index tabela particionada mas em outras tablespaces

      create index idx on employees ( first_name ) 
       partition partition1 tablespace idx1,
       partition partition2 tablespace idx2

      Algumas curiosidades quando usando tabelas particionadas:
      • O particionamento e pago a parte, sendo uma option do banco instalado como enterprise database
      • Algumas sentenças SELECT podem ser automaticamente dividas para que a resolução seja mais rápida
      • As operações de delete e inserts são enxergadas pelo dicionário somente como simples operação de organização.
      • As operações nos indices podem ser individualizadas (usando local indexes)
      • Podemos ter ate 1048575 partições por tabela ou índice
      • Podemos automatizar a criação das tabelas através de templates para as partições
      • As operações nos indices globais afetam as operações nas tabelas
      • As operações nos indices locais não afetam as operações nas tabelas como um todo
      • Os indices globais podem ser usados em tabelas particionadas ou nao. Os indices locais somente em tabelas particionadas.
      • Os indices locais sao automaticamente mantidos. Ou seja, as partições alteradas nas tabelas são automaticamente alteradas nos indices.

      Particionamento em indices

      Diferente do particionamento da tabela, temos o particionamento do indice. O particionamento do indice pode existir independente da tabela ser particionada ou nao. Isso ocorre uma flexibilizacao a mais e importante para a manutencao destes dados.

      Atributos: Global ou  Local

      O indice sendo global pode ter outro tipo de particionamento que o da tabela, ou mesmo se a tabela nao tiver nenhum particionamento.  O indice global pode utilizar somente as tecnicas range e hash.

      Os tipos de particionamento validos para o indice global . O indice sendo particionado local segue a mesma regra de particionamento da tabela, sendo que o indice local somente pode ser criado para a tabela que e particionadada.

      Concorrencia pelo indice

      Geralmente temos o evento buffer busy em uma frequencia muito grande de DML. Dai em um rac por exemplo para se evitar essa incidencia do evento, se cria o indice reverso. Isso resolveria em parte a concorrencia, mas para resolver de uma forma eficiente e conservar a mesma ordem o ideal e criar o indice global usando a tecnica de hash. Como o hash fara com que o indice seja designado a varias tablespaces, criaremos entao varios pequenos locais de contencao e nao um unico ponto de contencao geral, como resultado aumentaremos a eficiencia geral.

      Os indices particionados tem duas categorias de conceito logico

      Prefixo - A chave de partição é a coluna mais à esquerda (s) do índice. Sondagem este tipo de índice é menos onerosa. Se uma consulta especifica a chave de partição na partição onde particao de pesquisa é possível, isto é, nem todas as partições serão pesquisados.
      Não-prefixadas - Não suporta partição de pesquisa, mas é eficaz no acesso aos dados que abrange várias partições. Muitas vezes usado para indexar uma coluna que não é a chave de partição tabelas, quando você gostaria que o índice a ser dividido na mesma chave que a tabela subjacente.

      Isso depende como o acesso e feito e como as chaves estao armazenadas. Dai pode ser simplesmente um conceito logico sem nenhuma distincao ate na sintaxe do comando da criacao do indice local.

      Local Prefixed Indexes

      • Somente possivel em tabelas particionadas
      • Ocupa menos espaco porque se refere a tabela particionada e suas devidas particoes
      • Melhor performance quando utilizada para operacoes massivas com paralelismo
      • Podem ser unique ou nao unique
      • Btree ou Bitmap
      • A condicao e que o indice seja criado com mesmas colunas da chave de particionamento da tabela


      Create index idxp1 on emp(first_name) local;

      Create index idxp1 on emp(first_name) 
      tablespace indx04
      partition ex1 tablespace indx01,
      partition ex2 tablespace indx02,
      partition ex3 tablespace indx03

      Local Nonprefixed Index

      Indices que sao criados em tabelas particionadas
      A chave do indice nao e a mesma da chave do particionamento, mesmo que a chave de particionamento seja a mesma, a chave de ordenacao nao e.
      Pode ser nao unica
      Pode ser bitmap ou btree
      Utilizada quando as consultas envolvem a busca em mais particoes, ou que geralmente temos que varrer o indice ou muitas particoes


      create index idxp on emp (hire_date) local;

      Tipos de particionamento de Indice

      Index Types
      Global (Range or Hash)
      Local (All)
      Bitmap Join
      No (*)
      Secondary IOT

      O indice normalmente criado na tabela, tambem pode ser chamado de GLOBALNONPARTITIONED INDEX

      O Status do indice - UNUSABLE

      Quando o indice fica no status de unusable, o indice nao e mais usado pelo otimizador e ocorrerao erros ao executar o DML. Para isso temos alguns detalhes a serem seguidos:

      Parametro de inicializacao SKIP_UNUSABLE_INDEXES - quando configurado como TRUE que e o padrao o banco de dados o oracle ira executar o DML desde que haja um indice unique com status unusable, mas os indices nao sao mantidos aqueles com status unusable.

      Se em um indice particionado uma ou mais particoes estiverem com status unusable, o otimizador nao ira usar o indice para a combinacao de particoes para resolucao de consultas ou o partitioning pruning. Para as demais, utilizara as particoes que estao usable.

      Truncate de uma tabela com indices particionados invalidos, faz com que estes indices invalidos fiquem validos.

      Os indices invalidos devem ser reconstruidos ou removidos.

      Criando o indice como PARTIAL ou FULL Versao 12c

      O indice na versao 12c pode ser criado somente em algumas particoes da tabela, para agilizar sua utilizacao. Nas versoes anteriores as do 12c, nao temos tanta flexibilizacao na criacao, manutencao e remocao de particoes de indices.


      create index orders_idx_partial on orders(order_total) global indexing partial;


      create index orders_idx_partial on orders(order_total) global indexing full;

      Clique aqui para continuar lendo este post...

      segunda-feira, 6 de abril de 2015

      remover o banco de dados via DBCA - Countdown to OCM

      Para remover o banco de dados PROD1 via linha de comando com dbca, faca o comando abaixo:

      -bash-3.2$ dbca -silent -deleteDatabase -sourceDB PROD1 

      Estabelecendo conexão com o banco de dados

      4% concluído

       9% concluído

      14% concluído

      19% concluído

      23% concluído

      28% concluído

      47% concluído

      Atualizando arquivos de configuração de rede

      48% concluído

      52% concluído

      Deletando instância e arquivos de dados

      76% concluído

      100% concluído

      Verifique o arquivo de log "/u01/app/oracle/cfgtoollogs/dbca/PROD10.log" para obter mais detalhes.

      Clique aqui para continuar lendo este post...