You are on page 1of 7

backup:data_pump - WikiOracle.

es

http://www.wikioracle.es/doku.php?id=backup:data_pump

Inicio

Indice

Directorio de Scripts

Instalacion Oracle 10g

DATA PUMP
Oracle Data Pump es la nueva, ms rpida y flexible alternativa a las utilidades exp e imp usadas en las versiones de ORACLe anteriores. Adems de las herramientas bsicas de import y export, data pump tiene un API de PL/SQL para externas tables.
Para los ejemplos, primero debemos desbloquear el usuario SCOTT y crear un DIRECTORY al que pueda acceder:

CONN sys/password@db10g AS SYSDBA ALTER USER scott IDENTIFIED BY tiger ACCOUNT UNLOCK; GRANT CREATE ANY DIRECTORY TO scott; CREATE OR REPLACE DIRECTORY test_dir AS '/u01/app/oracle/oradata/'; GRANT READ, WRITE ON DIRECTORY test_dir TO scott;

Exports/Imports de Tablas
El parametro TABLES es usado para especificar las tablas a exportar.

En el siguiente ejemplo podemos ver la sintaxis para exportar una tabla:


expdp scott/tiger@db10g tables=EMP,DEPT directory=TEST_DIR dumpfile=EMP_DEPT.dmp logfile=expdpEMP_DEPT.log impdp scott/tiger@db10g tables=EMP,DEPT directory=TEST_DIR dumpfile=EMP_DEPT.dmp logfile=impdpEMP_DEPT.log

En este caso los logs son: expdpEMP_DEPT.log e impdpEMP_DEPT.log. El parmetro TABLE_EXISTS_ACTION=APPEND permite importar datos a una tabla existente.

Exports/Imports de Esquemas
El parmetro OWNER

del 'exp' en DATA PUMP es reemplazado por el parmetro SCHEMAS para especificar el esquemas

En el siguiente ejemplo podemos ver la sintaxis para exportar un esquema:


expdp scott/tiger@db10g schemas=SCOTT directory=TEST_DIR dumpfile=SCOTT.dmp logfile=expdpSCOTT.log impdp scott/tiger@db10g schemas=SCOTT directory=TEST_DIR dumpfile=SCOTT.dmp logfile=impdpSCOTT.log

En este caso los logs son: expdpSCOTT.log e impdpSCOTT.log.

Exports/Imports de Bases de Datos (FULL)


El parmetro FULL indica que se exporte la Base de Datos completa

1 de 7

07/02/2012 13:27

backup:data_pump - WikiOracle.es

http://www.wikioracle.es/doku.php?id=backup:data_pump

En el siguiente ejemplo podemos ver la sintaxis para exportar una BBDD:


expdp system/password@db10g full=Y directory=TEST_DIR dumpfile=DB10G.dmp logfile=expdpDB10G.log impdp system/password@db10g full=Y directory=TEST_DIR dumpfile=DB10G.dmp logfile=impdpDB10G.log

En este caso el log es: expdpDB10G.log.

Varios
A diferencia de los 'EXP' e 'IMP' tradicionales, en DATA PUMP Todos los ficheros .dmp y .log se crean en el servidor no en el cliente. Todas las acciones del DP son efectuadas por mltiples JOBS (Procesos del servidor, No DBMS_JOBS) Esos procesos son controlados por un Proceso 'Master' que usa Advanced queing. ste, crea una tabla de control, llamada como el JOB. sta tabla se borra al terminar el proceso. Los nombres del proceso y de la cola, se pueden definir usando el parametro JOB_NAME. Cancelando el proceso CLIENTE no para el Proceso de DATA PUMP Asociado. Pulsando ctrl+c en el cliente lo que ocasiona es la parada del refrescado de la pantalla del cliente y devuelve el control al prompt. Tecleando el comando 'STATUS' en el prompt permite monitorizar el estado del JOB Activo:
Export> status Job: SYS_EXPORT_FULL_01 Operation: EXPORT Mode: FULL State: EXECUTING Bytes Processed: 0 Current Parallelism: 1 Job Error Count: 0 Dump File: D:TEMPDB10G.DMP bytes written: 4,096 Worker 1 Status: State: EXECUTING Object Schema: SYSMAN Object Name: MGMT_CONTAINER_CRED_ARRAY Object Type: DATABASE_EXPORT/SCHEMA/TYPE/TYPE_SPEC Completed Objects: 261 Total Objects: 261

Rendimiento del Data Pump


El rendimiento del Data Pump puede mejorarse usando el Parmetro PARALLEL. Este parmetro, usado conjuntamente con el comodn '%U' en el parmetro DUMPFILE, permite el uso simultneo de multiples Dumpfiles para escribir o leer:
expdp scott/tiger@db10g schemas=SCOTT directory=TEST_DIR parallel=4 dumpfile=SCOTT_%U.dmp logfile=expdpSCOTT

INCLUDE / EXCLUDE
Los parmetros INCLUDE y EXCLUDE permiten incluir o excluir objetos a exportar o importar:

expdp scott/tiger@db10g schemas=SCOTT include=TABLE:"IN ('EMP', 'DEPT')" directory=TEST_DIR dumpfile=SCOTT expdp scott/tiger@db10g schemas=SCOTT exclude=TABLE:"= 'BONUS'" directory=TEST_DIR dumpfile=SCOTT.dmp logfile

API del Data Pump

2 de 7

07/02/2012 13:27

backup:data_pump - WikiOracle.es

http://www.wikioracle.es/doku.php?id=backup:data_pump

Junto con las utilidades de Data Pump, oracle proporciona el nuevo API: El siguiente es un pequeo ejemplo de como funciona el nuevo API puede ser usado para hacer un export de un esquema:
SET SERVEROUTPUT ON SIZE 1000000 DECLARE l_dp_handle NUMBER; l_last_job_state VARCHAR2(30) := 'UNDEFINED'; l_job_state VARCHAR2(30) := 'UNDEFINED'; l_sts KU$_STATUS; BEGIN l_dp_handle := DBMS_DATAPUMP.open( operation => 'EXPORT', job_mode => 'SCHEMA', remote_link => NULL, job_name => 'EMP_EXPORT', version => 'LATEST'); DBMS_DATAPUMP.add_file( handle => l_dp_handle, filename => 'SCOTT.dmp', directory => 'TEST_DIR'); DBMS_DATAPUMP.add_file( handle => l_dp_handle, filename => 'SCOTT.log', directory => 'TEST_DIR', filetype => DBMS_DATAPUMP.KU$_FILE_TYPE_LOG_FILE); DBMS_DATAPUMP.metadata_filter( handle => l_dp_handle, name => 'SCHEMA_EXPR', value => '= ''SCOTT'''); DBMS_DATAPUMP.start_job(l_dp_handle); DBMS_DATAPUMP.detach(l_dp_handle); END; /

Monitorizacin de JOBS
La vista DBA_DATAPUMP_JOBS puede usarse para monitorizar los JOBs Actuales:

system@db10g> select * from dba_datapump_jobs;


OWNER_NAME -----------------------------JOB_MODE -----------------------------SYSTEM FULL JOB_NAME -----------------------------STATE -----------------------------SYS_EXPORT_FULL_01 EXECUTING OPERATION -----------------------------DEGREE ATTACHED_SESSIONS ---------- ----------------EXPORT 1 1

Ayuda
La Opcion HELP=Y muestra los parmetros disponibles:
expdp help=y Export: Release 10.1.0.2.0 - Production on Tuesday, 23 March, 2004 8:33 Copyright (c) 2003, Oracle. All rights reserved.

The Data Pump export utility provides a mechanism for transferring data objects between Oracle databases. The utility is invoked with the following command: Example: expdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp

3 de 7

07/02/2012 13:27

backup:data_pump - WikiOracle.es

http://www.wikioracle.es/doku.php?id=backup:data_pump

You can control how Export runs by entering the 'expdp' command followed by various parameters. To specify parameters, you use keywords: Format: expdp KEYWORD=value or KEYWORD=(value1,value2,...,valueN) Example: expdp scott/tiger DUMPFILE=scott.dmp DIRECTORY=dmpdir SCHEMAS=scott or TABLES=(T1:P1,T1:P2), if T1 is partitioned table USERID must be the first parameter on the command line. Keyword Description (Default) -----------------------------------------------------------------------------ATTACH Attach to existing job, e.g. ATTACH [=job name]. CONTENT Specifies data to unload where the valid keywords are: (ALL), DATA_ONLY, and METADATA_ONLY. DIRECTORY Directory object to be used for dumpfiles and logfiles. DUMPFILE List of destination dump files (expdat.dmp), e.g. DUMPFILE=scott1.dmp, scott2.dmp, dmpdir:scott3.dmp. ESTIMATE Calculate job estimates where the valid keywords are: (BLOCKS) and STATISTICS. ESTIMATE_ONLY Calculate job estimates without performing the export. EXCLUDE Exclude specific object types, e.g. EXCLUDE=TABLE:EMP. FILESIZE Specify the size of each dumpfile in units of bytes. FLASHBACK_SCN SCN used to set session snapshot back to. FLASHBACK_TIME Time used to get the SCN closest to the specified time. FULL Export entire database (N). HELP Display Help messages (N). INCLUDE Include specific object types, e.g. INCLUDE=TABLE_DATA. JOB_NAME Name of export job to create. LOGFILE Log file name (export.log). NETWORK_LINK Name of remote database link to the source system. NOLOGFILE Do not write logfile (N). PARALLEL Change the number of active workers for current job. PARFILE Specify parameter file. QUERY Predicate clause used to export a subset of a table. SCHEMAS List of schemas to export (login schema). STATUS Frequency (secs) job status is to be monitored where the default (0) will show new status when available. TABLES Identifies a list of tables to export - one schema only. TABLESPACES Identifies a list of tablespaces to export. TRANSPORT_FULL_CHECK Verify storage segments of all tables (N). TRANSPORT_TABLESPACES List of tablespaces from which metadata will be unloaded. VERSION Version of objects to export where valid keywords are: (COMPATIBLE), LATEST, or any valid database version. The following commands are valid while in interactive mode. Note: abbreviations are allowed Command Description -----------------------------------------------------------------------------ADD_FILE Add dumpfile to dumpfile set. ADD_FILE=dumpfile-name CONTINUE_CLIENT Return to logging mode. Job will be re-started if idle. EXIT_CLIENT Quit client session and leave job running. HELP Summarize interactive commands. KILL_JOB Detach and delete job. PARALLEL Change the number of active workers for current job. PARALLEL=. START_JOB Start/resume current job. STATUS Frequency (secs) job status is to be monitored where the default (0) will show new status when available. STATUS=[interval] STOP_JOB Orderly shutdown of job execution and exits the client. STOP_JOB=IMMEDIATE performs an immediate shutdown of the Data Pump job.

impdp help=y
Import: Release 10.1.0.2.0 - Production on Saturday, 11 September, 2004 17:22 Copyright (c) 2003, Oracle. All rights reserved.

The Data Pump Import utility provides a mechanism for transferring data objects between Oracle databases. The utility is invoked with the following command: Example: impdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp You can control how Import runs by entering the 'impdp' command followed by various parameters. To specify parameters, you use keywords:

4 de 7

07/02/2012 13:27

backup:data_pump - WikiOracle.es

http://www.wikioracle.es/doku.php?id=backup:data_pump

Format: impdp KEYWORD=value or KEYWORD=(value1,value2,...,valueN) Example: impdp scott/tiger DIRECTORY=dmpdir DUMPFILE=scott.dmp USERID must be the first parameter on the command line. Keyword Description (Default) -----------------------------------------------------------------------------ATTACH Attach to existing job, e.g. ATTACH [=job name]. CONTENT Specifies data to load where the valid keywords are: (ALL), DATA_ONLY, and METADATA_ONLY. DIRECTORY Directory object to be used for dump, log, and sql files. DUMPFILE List of dumpfiles to import from (expdat.dmp), e.g. DUMPFILE=scott1.dmp, scott2.dmp, dmpdir:scott3.dmp. ESTIMATE Calculate job estimates where the valid keywords are: (BLOCKS) and STATISTICS. EXCLUDE Exclude specific object types, e.g. EXCLUDE=TABLE:EMP. FLASHBACK_SCN SCN used to set session snapshot back to. FLASHBACK_TIME Time used to get the SCN closest to the specified time. FULL Import everything from source (Y). HELP Display help messages (N). INCLUDE Include specific object types, e.g. INCLUDE=TABLE_DATA. JOB_NAME Name of import job to create. LOGFILE Log file name (import.log). NETWORK_LINK Name of remote database link to the source system. NOLOGFILE Do not write logfile. PARALLEL Change the number of active workers for current job. PARFILE Specify parameter file. QUERY Predicate clause used to import a subset of a table. REMAP_DATAFILE Redefine datafile references in all DDL statements. REMAP_SCHEMA Objects from one schema are loaded into another schema. REMAP_TABLESPACE Tablespace object are remapped to another tablespace. REUSE_DATAFILES Tablespace will be initialized if it already exists (N). SCHEMAS List of schemas to import. SKIP_UNUSABLE_INDEXES Skip indexes that were set to the Index Unusable state. SQLFILE Write all the SQL DDL to a specified file. STATUS Frequency (secs) job status is to be monitored where the default (0) will show new status when available. STREAMS_CONFIGURATION Enable the loading of Streams metadata TABLE_EXISTS_ACTION Action to take if imported object already exists. Valid keywords: (SKIP), APPEND, REPLACE and TRUNCATE. TABLES Identifies a list of tables to import. TABLESPACES Identifies a list of tablespaces to import. TRANSFORM Metadata transform to apply (Y/N) to specific objects. Valid transform keywords: SEGMENT_ATTRIBUTES and STORAGE. ex. TRANSFORM=SEGMENT_ATTRIBUTES:N:TABLE. TRANSPORT_DATAFILES List of datafiles to be imported by transportable mode. TRANSPORT_FULL_CHECK Verify storage segments of all tables (N). TRANSPORT_TABLESPACES List of tablespaces from which metadata will be loaded. Only valid in NETWORK_LINK mode import operations. VERSION Version of objects to export where valid keywords are: (COMPATIBLE), LATEST, or any valid database version. Only valid for NETWORK_LINK and SQLFILE. The following commands are valid while in interactive mode. Note: abbreviations are allowed Command Description (Default) -----------------------------------------------------------------------------CONTINUE_CLIENT Return to logging mode. Job will be re-started if idle. EXIT_CLIENT Quit client session and leave job running. HELP Summarize interactive commands. KILL_JOB Detach and delete job. PARALLEL Change the number of active workers for current job. PARALLEL=. START_JOB Start/resume current job. START_JOB=SKIP_CURRENT will start the job after skipping any action which was in progress when job was stopped. STATUS Frequency (secs) job status is to be monitored where the default (0) will show new status when available. STATUS=[interval] STOP_JOB Orderly shutdown of job execution and exits the client. STOP_JOB=IMMEDIATE performs an immediate shutdown of the Data Pump job.

Busca Soluciones en - FORO Wikioracle

Inicio

Indice

Directorio de Scripts

Instalacion Oracle 10g

5 de 7

07/02/2012 13:27

backup:data_pump - WikiOracle.es

http://www.wikioracle.es/doku.php?id=backup:data_pump

Discusin
#mypornhub, http://www.mypornhub.com, %2011/%05/%23 %00:%May: Do you know for sure when to watch best with me movies of <a href=http://www.mypornhub.com> best porn</a> of best hottest Pornstar Aurora Jolie naked in <a href=http://www.hotgirls8.com> Hot Girls </a> clips Gustavo Plascencia, %2011/%07/%13 %23:%Jul: Hola soy nuevo en esto del export e import con el datapump, mejor dicho estoy casi en 0, es muy claro el uso, pero tengo algunas preguntas para ver si me pueden ayudar, tengo oracle 10g en RedHat 5.5, no tengo instancias creadas, solo software instalado y un archivo DMP (mibase.dmp) que generado con un export FULL. Con que usuario y password me conecto para hacer el import si fuera de modo interactivo? Como seria la sintaxis completa para el import de mibase.dmp? Debe tener algun valor ORACLE_SID aunque no haya instancias para poder hacer el import? Debe haber una instancia creada o no para hacer el import FULL de un archivo DMP? Basta solo software instalado para poder regenerar un BD desde un DMP? Gracias de antemano. Gustavo Plascencia, %2011/%07/%14 %00:%Jul: Hola soy nuevo en esto del export e import con el datapump, mejor dicho estoy casi en 0, es muy claro el uso, pero tengo algunas preguntas para ver si me pueden ayudar, tengo oracle 10g en RedHat 5.5, no tengo instancias creadas, solo software instalado y un archivo DMP (mibase.dmp) que generado con un export FULL. Con que usuario y password me conecto para hacer el import si fuera de modo interactivo? Como seria la sintaxis completa para el import de mibase.dmp? Debe tener algun valor ORACLE_SID aunque no haya instancias para poder hacer el import? Debe haber una instancia creada o no para hacer el import FULL de un archivo DMP? Basta solo software instalado para poder regenerar un BD desde un DMP? Gracias de antemano. Gustavo Plascencia, %2011/%07/%14 %00:%Jul: Hola soy nuevo en esto del export e import con el datapump, mejor dicho estoy casi en 0, es muy claro el uso, pero tengo algunas preguntas para ver si me pueden ayudar, tengo oracle 10g en RedHat 5.5, no tengo instancias creadas, solo software instalado y un archivo DMP (mibase.dmp) que generado con un export FULL. Con que usuario y password me conecto para hacer el import si fuera de modo interactivo? Como seria la sintaxis completa para el import de mibase.dmp? Debe tener algun valor ORACLE_SID aunque no haya instancias para poder hacer el import? Debe haber una instancia creada o no para hacer el import FULL de un archivo DMP? Basta solo software instalado para poder regenerar un BD desde un DMP? Gracias de antemano. Gustavo Plascencia, %2011/%07/%14 %01:%Jul: Hola soy nuevo en esto del export e import con el datapump, mejor dicho estoy casi en 0, es muy claro el uso, pero tengo algunas preguntas para ver si me pueden ayudar, tengo oracle 10g en RedHat 5.5, no tengo instancias creadas, solo software instalado y un archivo DMP (mibase.dmp) que generado con un export FULL. Con que usuario y password me conecto para hacer el import si fuera de modo interactivo? Como seria la sintaxis completa para el import de mibase.dmp? Debe tener algun valor ORACLE_SID aunque no haya instancias para poder hacer el import? Debe haber una instancia creada o no para hacer el import FULL de un archivo DMP? Basta solo software instalado para poder regenerar un BD desde un DMP? Gracias de antemano.

6 de 7

07/02/2012 13:27

backup:data_pump - WikiOracle.es

http://www.wikioracle.es/doku.php?id=backup:data_pump

7 de 7

07/02/2012 13:27

You might also like