InglésFrancésEspañol

icono de página de OnWorks

pgloader: en línea en la nube

Ejecute pgloader en el proveedor de alojamiento gratuito de OnWorks sobre Ubuntu Online, Fedora Online, emulador en línea de Windows o emulador en línea de MAC OS

Este es el comando pgloader que se puede ejecutar en el proveedor de alojamiento gratuito de OnWorks utilizando una de nuestras múltiples estaciones de trabajo en línea gratuitas, como Ubuntu Online, Fedora Online, emulador en línea de Windows o emulador en línea de MAC OS.

PROGRAMA:

NOMBRE


cargador de pg - Cargador de datos PostgreSQL

SINOPSIS


pgloader [ ] [ ] ...
pgloader [ ] ORIGEN DESTINO

DESCRIPCIÓN


pgloader carga datos de varias fuentes en PostgreSQL. Puede transformar los datos que
lee sobre la marcha y envía SQL sin formato antes y después de la carga. Usa el COPIA
Protocolo PostgreSQL para transmitir los datos al servidor y gestiona los errores llenando un
par de rechazar.dat y rechazar.log archivos.

pgloader opera usando comandos que se leen desde archivos:

comandos de pgloader.load

o mediante el uso de argumentos y opciones, todos proporcionados en la línea de comando:

pgloader OBJETIVO DE FUENTE

ARGUMENTOS


Los argumentos de pgloader pueden ser tantos archivos de carga como sea necesario, o un par de conexiones
cadenas a un archivo de entrada específico.

FUENTE CONEXIÓN CADENA
El formato de la cadena de conexión de origen es el siguiente:

formato: ///absolute/path/to/file.ext
formato: //./relative/path/to/file.ext

Donde el formato puede ser uno de csv, fijas, copia, dbf, db3 or xf.

db: // usuario: contraseña @ host: puerto / nombrebd

Donde db podría ser sqlite, mysql or mssql.

Cuando se utiliza un formato de origen basado en archivos, pgloader también admite la recuperación nativa del archivo
desde una ubicación http y descomprimir un archivo si es necesario. En ese caso es necesario
utilizar el --escribe opción para especificar el formato esperado del archivo. Ver los ejemplos
abajo.

También tenga en cuenta que algunos formatos de archivo requieren la descripción de algunos detalles de implementación, como
columnas para leer y delimitadores y comillas al cargar desde csv.

Para escenarios de carga más complejos, deberá escribir un comando de carga completo en
la sintaxis que se describe más adelante en este documento.

OBJETIVO CONEXIÓN CADENA
El formato de la cadena de conexión de destino se describe en detalle más adelante en este documento, consulte
Cadena de conexión de sección.

OPCIONES


CONSULTAS OPCIONES
Utilice estas opciones cuando desee saber más sobre cómo utilizar cargador de pg, como esas opciones
causará cargador de pg no cargar ningún dato.

-h, --ayuda
Muestre el resumen de uso del comando y salga.

-V, --versión
Muestre la cadena de la versión de pgloader y salga.

-E, - list-encodings
Enumere las codificaciones conocidas en esta versión de pgloader.

-U, --actualización-config
Analizar archivos dados en la línea de comando como pgloader.conf archivos con el INI sintaxis
que estaba en uso en las versiones 2.x de pgloader, y genera la nueva sintaxis de comando para
pgloader en salida estándar.

GENERAL OPCIONES
Esas opciones están destinadas a modificar cargador de pg comportamiento al cargar datos.

-v, --verboso
Sea prolijo.

-q, --tranquilo
Silencio.

-d, --depurar
Muestra mensajes de información de nivel de depuración.

-D, --root-dir
Establezca el directorio de trabajo raíz (predeterminado en "/ tmp / pgloader").

-L, --archivo de registro
Configure el archivo de registro de pgloader (predeterminado en "/tmp/pgloader.log").

--log-min-mensajes
Nivel mínimo de verbosidad necesario para que el mensaje de registro llegue al archivo de registro. Uno de
crítico, registro, error, advertencia, aviso, información o depuración.

--cliente-min-mensajes
Nivel mínimo de verbosidad necesario para que el mensaje de registro llegue a la consola. Uno de
crítico, registro, error, advertencia, aviso, información o depuración.

-S, --resumen
Un nombre de archivo donde copiar la salida resumida. Cuando es relativo, el nombre del archivo es
expandido en * directorio raíz *.

El formato del nombre de archivo predeterminado es humano legible. Es posible tener
la salida en formatos amigables para la máquina como CSV, COPIA (COPIA propia de PostgreSQL
formato) o JSON especificando un nombre de archivo con la extensión resp. . Csv, .Copiar or
json.

-l , --cargar-archivo-lisp
Especificar un ceceo presentar para compilar y cargar en la imagen de pgloader antes de leer el
comandos, lo que permite definir una función de transformación adicional. Esas funciones deben
ser definido en el pgloader.transforma paquete. Esta opción puede aparecer más de
una vez en la línea de comando.

- actualización automática :

Especifique un directorio dónde encontrar fuentes de pgloader para que uno de los primeros
lo que hace es cargar dinámicamente (y compilar en código de máquina) otro
versión de sí mismo, generalmente una más nueva como un git checkout muy reciente.

COMANDO LÍNEA ÚNICO OPERACIONES
Esas opciones están diseñadas para usarse al usar cargador de pg solo desde la línea de comando, en lugar de
que usar un archivo de comando y las cláusulas de comando enriquecidas y el analizador. En casos simples, puede
será mucho más fácil de usar FUENTE y OBJETIVO directamente en la línea de comando, luego ajuste el
cargando con esas opciones:

· --con "opción":

Permite configurar opciones desde la línea de comandos. Puede utilizar esa opción tantas veces como
quieres. Los argumentos de la opción deben seguir el HE TRABAJADO cláusula para el tipo de fuente del
FUENTE especificación, como se describe más adelante en este documento.

· --colocar "nombre_guc = ´valor´"

Permite establecer la configuración de PostgreSQL desde la línea de comandos. Tenga en cuenta que la opción
el análisis es el mismo que cuando se usa desde el SET cláusula de comando, en particular debe
encierre el valor de guc entre comillas simples.

· --campo "..."

Permite establecer una definición de campo fuente. Los campos se acumulan en el orden indicado en
la línea de comando. Es posible utilizar un --campo opción por campo en la fuente
archivo, o para separar las definiciones de campo por una coma, como lo haría en el TENIENDO
CAMPOS cláusula.

· --Elenco "..."

Permite establecer una regla de conversión específica para cargar los datos.

· --escribe csv | fijo | db3 | ixf | sqlite | mysql | mssql

Permite forzar el tipo de fuente, en caso de que FUENTE el análisis no es satisfactorio.

· - codificación

Configure la codificación del archivo de origen desde el que cargar los datos.

· --antes de

Analizar el nombre de archivo dado para consultas SQL y ejecutarlas en la base de datos de destino antes
cargando los datos de la fuente. Las consultas son analizadas por el propio pgloader: necesitan
terminará con un punto y coma (;) y el archivo puede incluir \i or \ ir comandos a
incluir otro archivo.

· --después

Analizar el nombre de archivo dado para consultas SQL y ejecutarlas en la base de datos de destino después
habiendo cargado los datos de la fuente. Las consultas se analizan de la misma forma que con
de la forma más --antes de opción, ver arriba.

MÁS DEBUG INFORMACIÓN:
Para obtener la máxima cantidad de información de depuración, puede utilizar tanto el --verboso y la
--depurar cambia al mismo tiempo, lo que equivale a decir --cliente-min-mensajes
datos. Luego, los mensajes de registro mostrarán los datos que se están procesando, en los casos en que el
el código tiene soporte explícito para ello.

USO EJEMPLOS


Revise las opciones de la línea de comandos y la versión de pgloader:

pgloader --ayuda
pgloader --versión

carga obtenidos de a integraciones comando
Utilice el archivo de comando como argumento del comando pgloader, pgloader analizará ese archivo y
ejecutar los comandos que se encuentran en él:

pgloader --verbose ./test/csv-districts.load

CSV
Cargue datos de un archivo CSV en una tabla preexistente en su base de datos:

pgloader --escriba csv \
- ID de campo --campo de campo \
--con truncar \
--con "campos terminados por ´, ´" \
./prueba/datos/coincidencia-1.csv \
postgres: /// pgloader? tablename = matching

En ese ejemplo, toda la carga se maneja desde la línea de comando, sin pasar por la necesidad de
escribir un comando en la sintaxis del comando pgloader por completo. Sin embargo, como no hay comando,
la información adicional necesaria debe proporcionarse en la línea de comando utilizando el --escribe y
--campo y --con interruptores.

Para obtener documentación sobre las sintaxis disponibles para --campo y --con interruptores, por favor
consulte la sección CSV más adelante en la página de manual.

Tenga en cuenta también que el URI de PostgreSQL incluye el destino nombre de tabla.

Reading obtenidos de ESTÁNDAR
Las fuentes de pgloader basadas en archivos se pueden cargar desde la entrada estándar, como se muestra a continuación.
ejemplo:

pgloader --escriba csv \
--campo "usps, geoid, aland, awater, aland_sqmi, awater_sqmi, intptlat, intptlong" \
--con "omitir encabezado = 1" \
--con "campos terminados por ´ \ t´" \
- \
postgresql: /// pgloader? districts_longlat \
<prueba / datos / 2013_Gaz_113CDs_national.txt

El guion (-) carácter como fuente se usa para significar estándar Las opciones de entrada, como es habitual en Unix
líneas de comando. Es posible transmitir contenido comprimido a pgloader con esta técnica,
usando la tubería Unix:

gunzip -c source.gz | pgloader --type csv ... - pgsql: /// target? foo

carga obtenidos de CSV Hoy Disponibles atravesar HTTP
El mismo comando que el anterior también se puede ejecutar si el archivo CSV se encuentra en un
ubicación HTTP remota:

pgloader --escriba csv \
--campo "usps, geoid, aland, awater, aland_sqmi, awater_sqmi, intptlat, intptlong" \
--con "omitir encabezado = 1" \
--con "campos terminados por ´ \ t´" \
http://pgsql.tapoueh.org/temp/2013_Gaz_113CDs_national.txt \
postgresql: /// pgloader? districts_longlat

En ese caso, se deben usar algunas opciones más, ya que el archivo contiene un encabezado de una línea
(lo más común son los nombres de las columnas, podría ser un aviso de derechos de autor). Además, en ese caso,
especificar todos los campos en un solo --campo argumento de opción.

Nuevamente, la cadena de conexión de destino de PostgreSQL debe contener la nombre de tabla opción y tu
Debe asegurarse de que la tabla de destino exista y pueda ajustarse a los datos. Aquí está el comando SQL
utilizado en ese ejemplo en caso de que quiera probarlo usted mismo:

crear mesa districts_longlat
(
texto usps,
texto geoide,
aland bigint,
un agua grande,
aland_sqmi doble precisión,
awater_sqmi doble precisión,
intptlat doble precisión,
intptlong doble precisión
);

También observe que el mismo comando funcionará contra una versión archivada de los mismos datos,
por ejemplo: documentación que demuestre copropiedad de bienes, residencia compartida, recursos económicos combinados, declaraciones juradas de personas que lo conocen y que puedan dar fe de su relación y vida compartida, Decretos o certificados de adopción, Constancia de custodia legal de un niño adoptado durante un período de dos años http://pgsql.tapoueh.org/temp/2013_Gaz_113CDs_national.txt.gz.

Finalmente, es importante tener en cuenta que pgloader primero obtiene el contenido de la URL HTTP
a un archivo local, luego expanda el archivo cuando se reconozca como uno, y solo entonces
procesa el archivo expandido localmente.

En algunos casos, ya sea porque pgloader no tiene soporte directo para su formato de archivo o
tal vez porque expandir el archivo no es factible en su entorno, es posible que desee
stream el contenido directamente desde su ubicación remota en PostgreSQL. He aquí cómo hacerlo
eso, usando el viejo truco de Unix Pipes probado en batalla:

rizo http://pgsql.tapoueh.org/temp/2013_Gaz_113CDs_national.txt.gz \
| gunzip-c\
| pgloader --escriba csv \
--campo "usps, geoid, aland, awater, aland_sqmi, awater_sqmi, intptlat, intptlong"
--con "omitir encabezado = 1" \
--con "campos terminados por ´ \ t´" \
- \
postgresql: /// pgloader? districts_longlat

Ahora, el sistema operativo se encargará de la transmisión y el almacenamiento en búfer entre la red y el
Los comandos y pgloader se encargarán de transmitir los datos a PostgreSQL.

Migrando obtenidos de SQLite
El siguiente comando abrirá la base de datos SQLite, descubrirá las definiciones de sus tablas
incluidos índices y claves externas, migre esas definiciones mientras fundición el tipo de datos
especificaciones a su equivalente de PostgreSQL y luego migrar los datos a través de:

creadob nuevobd
pgloader ./test/sqlite/sqlite.db postgresql: /// newdb

Migrando obtenidos de MySQL
Simplemente cree una base de datos donde alojar los datos y las definiciones de MySQL y haga que pgloader lo haga
la migración para usted en una sola línea de comando:

creadob pagila
pgloader mysql: // usuario @ localhost / sakila postgresql: /// pagila

Atractivo an archivado DBF presentar obtenidos de a HTTP sanaciones località
Es posible que pgloader descargue un archivo de HTTP, lo desarchive y solo entonces abra
para descubrir el esquema y luego cargar los datos:

creado b foo
pgloader --tipo dbf http://www.insee.fr/fr/methodes/nomenclatures/cog/telechargement/2013/dbf/historiq2013.zip postgresql: /// foo

Aquí no es posible que pgloader adivine el tipo de fuente de datos que se está proporcionando, por lo que
es necesario utilizar el --escribe interruptor de línea de comando.

BATCHES Y REINTEN COMPORTAMIENTO


Para cargar datos en PostgreSQL, pgloader usa el COPIA Protocolo de transmisión. Si bien este es el
forma más rápida de cargar datos, COPIA tiene un inconveniente importante: tan pronto como PostgreSQL emite un
error con cualquier bit de datos que se le envíe, sea cual sea el problema, todo el conjunto de datos es
rechazado por PostgreSQL.

Para solucionarlo, pgloader corta los datos en lotes de 25000 filas cada una, de modo que cuando
Ocurre un problema que solo afecta a ese número de filas de datos. Cada lote se guarda en la memoria
mientras que el COPIA la transmisión ocurre, para poder manejar errores en caso de que ocurra alguno.

Cuando PostgreSQL rechaza todo el lote, pgloader registra el mensaje de error y luego aísla el
filas incorrectas de las aceptadas volviendo a intentar las filas agrupadas en lotes más pequeños. Hacer
que, pgloader analiza el CONTEXTO mensaje de error de la COPIA fallida, como el mensaje
contiene el número de línea donde se encontró el error en el lote, como en el siguiente
ejemplo:

CONTEXTO: Errores de COPIA, línea 3, columna b: "2006-13-11"

Usando esa información, pgloader recargará todas las filas del lote antes del error
uno, registre el erróneo como rechazado, luego intente cargar el resto del lote en un
intento único, que puede contener o no otros datos erróneos.

Al final de una carga que contiene filas rechazadas, encontrará dos archivos en el directorio raíz
ubicación, en un directorio con el mismo nombre que la base de datos de destino de su configuración. los
Los nombres de archivo son la tabla de destino y sus extensiones son .dat para los datos rechazados y
.log para el archivo que contiene los registros completos del lado del cliente de PostgreSQL sobre los datos rechazados.

El .dat El archivo está formateado en PostgreSQL el formato de COPIA de texto como se documenta en
http://www.postgresql.org/docs/9.2/static/sql-copy.html# AEN66609.

A NOTA SOBRE NOSOTROS PERFORMANCES


pgloader se ha desarrollado teniendo en cuenta el rendimiento, para poder hacer frente a cualquier
necesidades crecientes en la carga de grandes cantidades de datos en PostgreSQL.

La arquitectura básica que utiliza es el antiguo modelo de tubería de Unix, donde un hilo es responsable
para cargar los datos (leer un archivo CSV, consultar MySQL, etc.) y rellenar preprocesados
datos en una cola. Otro hilo se alimenta de la cola, aplique un poco más transformaciones
a los datos de entrada y transmita el resultado final a PostgreSQL utilizando el protocolo COPY.

Cuando se le da un archivo que PostgreSQL COPIA comando sabe cómo analizar, y si el archivo
no contiene datos erróneos, entonces pgloader nunca será tan rápido como usar el
PostgreSQL COPIA mando.

Tenga en cuenta que mientras el COPIA El comando está restringido para leer desde su entrada estándar o
desde un archivo local en el sistema de archivos del servidor, la herramienta de línea de comandos psql implementa un
\Copiar comando que sabe cómo transmitir un archivo local al cliente a través de la red y
en el servidor PostgreSQL, usando el mismo protocolo que usa pgloader.

FUENTE FORMATOS


pgloader admite los siguientes formatos de entrada:

· Csv, que incluye también tsv y otras variantes comunes donde puede cambiar el
separador y la citando reglas y como escapar de la forma más citas sí mismos;

· Archivo de columnas fijas, donde pgloader es lo suficientemente flexible como para adaptarse a los archivos fuente
columnas faltantesharapiento fijas de largo visión de conjunto archivos existe);

· Archivos formateados PostgreSLQ COPY, siguiendo la documentación de COPY TEXT de PostgreSQL,
como los archivos de rechazo preparados por pgloader;

· Archivos dbase conocidos como archivo db3 o dbf;

· Archivos formateados ixf, siendo ixf un formato de almacenamiento binario de IBM;

· Bases de datos sqlite con descubrimiento totalmente automatizado del esquema y reglas de transmisión avanzadas;

· Bases de datos mysql con descubrimiento totalmente automatizado del esquema y reglas de transmisión avanzadas;

· Bases de datos MS SQL con descubrimiento totalmente automatizado del esquema y reglas de conversión avanzadas.

CARGADOR DE PG COMANDOS SINTAXIS


pgloader implementa un lenguaje específico de dominio que permite configurar la carga de datos complejos
scripts que manejan columnas calculadas y desinfección sobre la marcha de los datos de entrada. Para más
En escenarios complejos de carga de datos, se le pedirá que aprenda la sintaxis de DSL. Su
destinado a parecer familiar para DBA al estar inspirado por SQL donde tiene sentido, que no es
tanto después de todo.

Los comandos pgloader siguen las mismas reglas gramaticales globales. Cada uno de ellos puede apoyar
sólo un subconjunto de las opciones generales y proporcionan opciones específicas.

CARGA
DE [TENIENDO CAMPOS ]
DENTRO [COLUMNAS DE OBJETIVO ]

[ CON ]

[ COLOCAR ]

[ANTES DE CARGAR [HACER | EJECUTAR ] ...]
[DESPUÉS DE CARGAR [HACER | EJECUTAR ] ...]
;

Las cláusulas principales son las CARGA, DESDE, EN y HE TRABAJADO cláusulas que implementa cada comando.
Algún comando luego implementa el SET comando, o algunas cláusulas específicas como el REPARTO
cláusula.

COMÚN CLAUSULAS


Algunas cláusulas son comunes a todos los comandos:

· DESDE

El DESDE La cláusula especifica de dónde leer los datos, y cada comando presenta su
propia variante de fuentes. Por ejemplo, el CSV soportes de origen en línea, stdin,
nombre de archivo, un nombre de archivo entre comillas y un NOMBRE DEL ARCHIVO PAREO cláusula (ver arriba); mientras que el
MySQL source solo admite una especificación URI de base de datos MySQL.

En todos los casos, el DESDE cláusula es capaz de leer su valor de una variable de entorno
al usar el formulario OBTENERV 'varname'.

· EN

El URI de conexión de PostgreSQL debe contener el nombre de la tabla de destino donde cargar
los datos en. Esa tabla ya debe haber sido creada en PostgreSQL, y el nombre
podría estar calificado por esquema.

El EN El URI de conexión de la base de datos de destino se puede analizar a partir del valor de un entorno
variable al usar el formulario OBTENERV 'varname'.

Entonces EN La opción también admite una lista opcional separada por comas de columnas de destino,
que son el nombre de una entrada campo o la lista separada por espacios en blanco del
el nombre de la columna de destino, su tipo de datos PostgreSQL y un USO expresión.

El USO expresión puede ser cualquier forma Common Lisp válida y se leerá con la
paquete actual establecido en pgloader.transforma, para que pueda utilizar las funciones definidas en
ese paquete, como las funciones cargadas dinámicamente con el --carga de línea de comandos
parámetro.

Cada USO La expresión se compila en tiempo de ejecución en código nativo.

Esta función permite a pgloader cargar cualquier número de campos en un archivo CSV en un
posiblemente un número diferente de columnas en la base de datos, usando código personalizado para eso
proyección.

· HE TRABAJADO

Conjunto de opciones para aplicar al comando, usando una sintaxis global de:

· clave = propuesta de

· use opción

· do no use opción

Consulte cada comando específico para obtener más detalles.

· SET

Esta cláusula permite especificar los parámetros de sesión que se establecerán para todas las sesiones abiertas.
por pgloader. Espera una lista de nombre de parámetro, el signo igual, luego el
valor entre comillas simples como una lista separada por comas.

Los nombres y valores de los parámetros no son validados por pgloader, se dan
tal cual para PostgreSQL.

· ANTES CARGA DO

Puede ejecutar consultas SQL en la base de datos antes de cargar los datos desde la CSV
expediente. Las consultas SQL más comunes son CREAR MESA DE NOCHE IF NOT EXISTE para que los datos puedan ser
cargado

Cada comando debe ser cotizado en dólares: debe comenzar y terminar con un signo de dólar doble,
$$. Las consultas cotizadas en dólares se separan por comas. No se espera puntuación adicional
después de la última consulta SQL.

· ANTES CARGA EJECUTAR

Mismo comportamiento que en el ANTES CARGA DO cláusula. Le permite leer las consultas SQL
desde un archivo SQL. Implementa soporte para cotizaciones en dólares de PostgreSQL y \i y \ ir
incluir instalaciones como en psql modo por lotes (donde son lo mismo).

· DESPUÉS DE CARGA DO

Mismo formato que ANTES CARGA DO, las consultas cotizadas en dólares que se encuentran en esa sección son
ejecutado una vez finalizada la carga. Ese es el momento adecuado para crear índices y
restricciones o volver a habilitar los activadores.

· DESPUÉS DE CARGA EJECUTAR

Mismo comportamiento que en el DESPUÉS DE CARGA DO cláusula. Le permite leer las consultas SQL de
un archivo SQL. Implementa soporte para cotizaciones en dólares de PostgreSQL y \i y \ ir
incluir instalaciones como en psql modo por lotes (donde son lo mismo).

Conexión Cordón
El Se espera que el parámetro se proporcione como un Conexión URI como se documenta
en la documentación de PostgreSQL en
http://www.postgresql.org/docs/9.3/static/libpq-connect.html# LIBPQ-CONNSTRING.

postgresql: // [usuario [: contraseña] @] [netloc] [: puerto] [/ dbname] [? opción = valor & ...]

Lugar:

· usuario

Puede contener cualquier carácter, incluidos los dos puntos (:) que luego debe duplicarse (::) y
a la señal (@) que luego debe duplicarse (@@).

Cuando se omite, el usuario nombre por defecto es el valor de la PGUSER Variable ambiental,
y si no está configurado, el valor de la USUARIO Variable ambiental.

· la contraseña

Puede contener cualquier carácter, incluido el signo arroba (@) que luego debe duplicarse (@@).
Para dejar la contraseña vacía, cuando el usuario el nombre termina con un signo de arroba, luego debe
utilice la sintaxis de usuario: @.

Cuando se omite, el la contraseña por defecto es el valor de la CONTRASEÑA PG entorno
variable si está configurada, de lo contrario, la contraseña no se establece.

· netloc

Puede ser un nombre de host en notación punteada, un ipv4 o un socket de dominio Unix
sendero. Vacío es la ubicación de red predeterminada, en un sistema que proporciona UNIX dominio
enchufe ese método es el preferido, de lo contrario el netloc predeterminado a localhost.

Es posible forzar el UNIX dominio enchufe ruta usando la sintaxis
unix: / ruta / a / donde / está / el / socket / archivo /, por lo que para forzar una ruta de socket no predeterminada y una
puerto no predeterminado, tendrías:

postgresql: // unix:/ Tmp: 54321 / dbname

El netloc por defecto es el valor de la PHOST variable de entorno, y si no está configurada,
a cualquiera de los valores predeterminados UNIX ruta de socket cuando se ejecuta en un sistema Unix, y localhost
de otra manera.

· nombre de la base de datos

Debe ser un identificador adecuado (letra seguida de una combinación de letras, dígitos y
signos de puntuación coma,), guión (-) y subrayado (_).

Cuando se omite, el nombre de la base de datos por defecto el valor de la variable de entorno BASE DE DATOS DE PG,
y si eso no está configurado, a la usuario valor determinado anteriormente.

· opciones

Los parámetros opcionales deben ser suministrados con el formulario. Nombre = valor, y puedes usar
varios parámetros separándolos usando un ampersand (&) personaje.

Aquí solo se admiten algunas opciones, nombre de tabla (que puede estar calificado con un
nombre de esquema) modo ssl, fortaleza, Puerto, nombre de la base de datos, usuario y la contraseña.

El modo ssl Los valores de los parámetros pueden ser uno de inhabilitar, permitir, preferir or exigir.

Por razones de compatibilidad con versiones anteriores, es posible especificar el nombre de tabla opción
directamente, sin deletrear el tablename = partes.

Las opciones anulan los componentes principales de URI cuando se dan ambos, y usando el
Los parámetros de opción codificados en porcentaje permiten usar contraseñas que comienzan con dos puntos y
omitiendo otras limitaciones de análisis de componentes URI.

Regular Expresiones
Varias cláusulas enumeradas a continuación aceptan regular expresiones con la GMT
reglas de entrada:

· Una expresión regular comienza con un signo de tilde (~),

· Luego va seguido de una señal de apertura,

· Entonces se permite cualquier carácter y se considera parte de la expresión regular, excepto
para el cartel de cierre,

· Entonces se espera una señal de cierre.

Los letreros de apertura y cierre están permitidos por pares, aquí está la lista completa de permitidos.
delimitadores:

~ //
~ []
~ {}
~ ()
~ <>
~ ""
~ ´´
~ ||
~ ##

Elija el conjunto de delimitadores que no chocan con el regular expresión estás tratando de
aporte. Si su expresión es tal que ninguna de las soluciones le permite ingresarla, la
los lugares donde se permiten tales expresiones deberían permitir una lista de expresiones.

Comentarios
Cualquier comando puede contener comentarios, siguiendo esas reglas de entrada:

· los -- delimitador comienza un comentario que termina con el final de la línea actual,

· Los delimitadores /* y */ respectivamente, iniciar y finalizar un comentario, que se puede encontrar en
en medio de un comando o abarcar varias líneas.

Cualquier lugar donde puedas entrar espacio en blanco también aceptará un comentario.

Lote comportamiento opciones
Todos los comandos de pgloader son compatibles con HE TRABAJADO cláusula que permite especificar opciones.
Algunas opciones son genéricas y aceptadas por todos los comandos, como el lote comportamiento
opciones, y algunas opciones son específicas de un tipo de fuente de datos, como CSV omitir encabezamiento
.

Las opciones de comportamiento de lotes globales son:

· lote filas

Toma un valor numérico como argumento, usado como el número máximo de filas permitidas en un
lote. El valor predeterminado es 25 000 y se puede cambiar para intentar tener mejores actuaciones
características o para controlar el uso de memoria del pgloader;

· lote tamaño

Toma una unidad de memoria como argumento, como 20 MB, su valor predeterminado. Aceptado
los multiplicadores son kB, MB, GB, TB y PB. El caso es importante para no confundirse.
sobre bits frente a bytes, aquí solo estamos hablando de bytes.

· lote concurrencia

Toma un valor numérico como argumento, por defecto es 10. Ese es el número de lotes que
pgloader permite construir en memoria, incluso cuando solo un solo lote a la vez puede
enviarse a PostgreSQL.

Admitir que se envíe más de un lote a la vez está en la lista TODO de
pgloader, pero aún no está implementado. Esta opción se trata de controlar la memoria.
necesidades de pgloader como una compensación a las características de rendimiento, y no sobre
actividad paralela de pgloader.

Otras opciones son específicas para cada fuente de entrada, consulte partes específicas del
documentación para su listado y cobertura.

A continuación, se cierra un lote tan pronto como lote filas o el lote tamaño el umbral es
cruzado, lo que ocurra primero. En los casos en que un lote deba cerrarse debido a la
lote tamaño escenario, un depurar El mensaje de registro de nivel se imprime con cuántas filas caben en el
de gran tamaño lote.

CARGA CSV


Este comando indica a pgloader que cargue datos desde un CSV expediente. Aquí tienes un ejemplo:

CARGAR CSV
DESDE ´GeoLiteCity-Blocks.csv´ CON CODIFICACIÓN iso-646-us
TENIENDO CAMPOS
(
startIpNum, endIpNum, locId
)
INTO postgresql: // usuario @ localhost: 54393 / dbname? Geolite.blocks
COLUMNAS OBJETIVO
(
iprange ip4r usando (ip-range startIpNum endIpNum),
ID loc
)
CON truncar,
omitir encabezado = 2,
campos delimitados opcionalmente por ´ "´,
campos escapados por comillas con barra invertida,
campos terminados por ´ \ t´

AJUSTE work_mem en ´32 MB´, maintenance_work_mem en ´64 MB´;

El csv El comando de formato acepta las siguientes cláusulas y opciones:

· DESDE

Nombre de archivo desde donde cargar los datos. Acepta un CODIFICACION opción. Utilizar el
- list-encodings opción para saber qué nombres de codificación son compatibles.

El nombre del archivo puede estar entre comillas simples y puede ser uno de los siguientes
valores especiales:

· en línea

Los datos se encuentran después del final de los comandos analizados. Cualquier cantidad de líneas vacías
entre el final de los comandos y el comienzo de los datos se acepta.

· stdin

Lee los datos del flujo de entrada estándar.

· NOMBRES DE ARCHIVOS PAREO

El conjunto pareo La cláusula debe seguir la siguiente regla:

[TODOS LOS NOMBRES DE ARCHIVOS | [PRIMER] NOMBRE DE ARCHIVO]
expresión regular COINCIDENTE
[EN DIRECTORIO ´ ... ´]

El pareo la cláusula se aplica dado regular expresión (ver arriba para la sintaxis exacta, varios
opciones se pueden utilizar aquí) a los nombres de archivo. Entonces es posible cargar datos solo desde el
primer partido de todos ellos.

La opción IN De miembros La cláusula permite especificar qué directorio caminar para encontrar el
archivos de datos, y puede ser relativo al lugar desde donde se lee el archivo de comando, o
absoluto. El directorio dado debe existir.

El DESDE La opción también admite una lista opcional separada por comas de campo nombres que describen
lo que se espera en el CSV archivo de datos, opcionalmente introducido por la cláusula TENIENDO CAMPOS.

Cada nombre de campo puede ser solo un nombre o un nombre seguido con un lector específico
opciones para ese campo, entre corchetes y separados por comas. Soportado
Las opciones de lector por campo son:

· finalizado by

Ver la descripción de campo finalizado by abajo.

El procesamiento de esta opción no está implementado actualmente.

· datos formato

Cuando se espera el campo del tipo de fecha, esta opción permite especificar el
formato de fecha utilizado en el archivo.

Las cadenas de formato de fecha son cadenas de plantillas modeladas con PostgreSQL a_char
soporte de cadenas de plantilla, limitado a los siguientes patrones:

· YYYY, YYY, YY para la parte del año

· MM para la parte numérica del mes

· DD para la parte numérica del día

· HH, HH12, HH24 para la parte de la hora

· Am, am, am, am

· Pm, pm, pm, pm

· MI para la parte de las actas

· SS para la parte de los segundos

· MS para la parte de milisegundos (4 dígitos)

· EE. UU. Para la parte de microsegundos (6 dígitos)

· Signos de puntuación sin analizar: -. * # @ T / \ y espacio

A continuación se muestra un ejemplo de datos formato especificación:

nombre-columna [formato de fecha ´YYYY-MM-DD HH24-MI-SS.US´]

· nulo if

Esta opción toma un argumento que es la palabra clave espacios en blanco o una cita doble
cadena.

Cuándo espacios en blanco se utiliza y el valor del campo que se lee contiene solo caracteres de espacio,
luego se convierte automáticamente a un SQL NULL .

Cuando se usa una cadena entre comillas dobles y esa cadena se lee como el valor del campo, entonces
el valor del campo se convierte automáticamente a un SQL NULL .

· recortar ambas espacio en blanco, recortar left espacio en blanco, recortar un Derecho espacio en blanco

Esta opción permite recortar los espacios en blanco en los datos leídos, ya sea de ambos lados del
datos, o solo los caracteres de espacio en blanco que se encuentran a la izquierda del flujo, o solo
los de la derecha de la cadena.

· HE TRABAJADO

Al cargar desde un CSV archivo, se admiten las siguientes opciones:

· truncar

Cuando esta opción aparece en la lista, pgloader emite un TRUNCAR comando contra el PostgreSQL
tabla de destino antes de leer el archivo de datos.

· caer índices

Cuando esta opción aparece en la lista, pgloader emite DROP ÍNDICE manda contra todos los
índices definidos en la tabla de destino antes de copiar los datos, luego CREAR ÍNDICE
comandos una vez que el COPIA está hecho.

Para obtener el mejor rendimiento posible, todos los índices se crean en
paralelo y cuando se hace, las claves primarias se construyen de nuevo a partir de los índices únicos sólo
creado. Este proceso de dos pasos permite crear el índice de clave primaria en paralelo con
los otros índices, ya que solo el ALTER MESA DE NOCHE comando necesita un de la máquina PROGRAMA EXCLUSIVO bloquear on
la mesa de destino.

· inhabilitar dispara

Cuando esta opción aparece en la lista, pgloader emite un ALTER MESA DE NOCHE ... INHABILITAR GATILLO TODOS
comando contra la tabla de destino de PostgreSQL antes de copiar los datos, luego el comando
ALTER MESA DE NOCHE ... HABILITAR GATILLO TODOS una vez el COPIA está hecho.

Esta opción permite cargar datos en una tabla preexistente ignorando la extranjero clave
restricciones y desencadenantes definidos por el usuario y pueden resultar en inválidos extranjero clave
restricciones una vez que se cargan los datos. Úselo con cuidado.

· omitir encabezamiento

Toma un valor numérico como argumento. Indique a pgloader que se salte esa cantidad de líneas en el
comienzo del archivo de entrada.

· csv encabezamiento

Utilice la primera línea leída después omitir encabezamiento como la lista de nombres de campo csv que se encuentran
en el archivo CSV, utilizando los mismos parámetros CSV que para los datos CSV.

· recortar no cotizado espacios en blanco

Al leer valores no cotizados en el CSV archivo, retire los espacios en blanco que se encuentran entre
separador y el valor. Ese comportamiento es el predeterminado.

· keep no cotizado espacios en blanco

Al leer valores no cotizados en el CSV archivo, mantenga los espacios en blanco que se encuentran entre
separador y el valor.

· campos opcionalmente adjunto by

Toma un solo carácter como argumento, que se debe encontrar entre comillas simples, y
podría darse como el propio carácter imprimible, el valor especial \ t para denotar un
carácter de tabulación, o 0x luego un valor hexadecimal leído como el código ASCII para el
carácter.

Este carácter se utiliza como carácter de comillas en el CSV archivo, y por defecto es
comillas dobles.

· campos no adjunto

De forma predeterminada, pgloader utilizará el carácter de comillas dobles como carácter adjunto.
Si tiene un archivo CSV donde los campos no están incluidos y utiliza comillas dobles como
carácter ordinario esperado, luego use la opción campos no adjunto para el CSV
analizador para aceptar esos valores.

· campos escapado by

Toma el valor especial comilla invertida or comillas dobles, o cualquier valor admitido
según el campos finalizado by opción (ver más abajo). Este valor se utiliza para reconocer
separadores de campo de escape cuando se encuentran dentro de los propios campos de datos.
Predeterminado a comillas dobles.

· csv escapar modo

Toma el valor especial cotización inicial (el predeterminado) o siguiendo y permite que el CSV
analizador para analizar solo el separador de campo de escape o cualquier carácter (incluido CSV
datos) cuando se utiliza el siguiendo .

· campos finalizado by

Toma un solo carácter como argumento, que se debe encontrar entre comillas simples, y
podría darse como el propio carácter imprimible, el valor especial \ t para denotar un
carácter de tabulación, o 0x luego un valor hexadecimal leído como el código ASCII para el
carácter.

Este carácter se utiliza como campo separador al leer el CSV datos.

· líneas finalizado by

Toma un solo carácter como argumento, que se debe encontrar entre comillas simples, y
podría darse como el propio carácter imprimible, el valor especial \ t para denotar un
carácter de tabulación, o 0x luego un valor hexadecimal leído como el código ASCII para el
carácter.

Este carácter se usa para reconocer fin de la línea condición al leer el CSV datos.

CARGA FIJO COLS


Este comando indica a pgloader que cargue datos desde un archivo de texto que contiene columnas dispuestas
en un parche de fijas tamaño manera. Aquí tienes un ejemplo:

CARGA FIJA
DESDE en línea
(
a de 0 a 10,
b de 10 por 8,
c de 18 por 8,
d de 26 para 17 [nulo si hay espacios en blanco, recortar el espacio en blanco derecho]
)
INTO postgresql: /// pgloader? Fijo
(
un, b,
c tiempo usando (tiempo-sin-separador c),
d
)

CON truncar

CONFIGURAR client_encoding a ´latin1´,
work_mem a ´14MB´,
cadenas_conforme_estándar a ´on´

ANTES DE CARGAR HACER
$$ drop table si existe fijo; $$,
$$ crear tabla fija (
un entero
b fecha,
c tiempo,
d texto
);
$$;

01234567892008052011431250primera línea
01234562008052115182300 espacio en blanco con relleno
12345678902008052208231560otra línea
2345609872014092914371500
2345678902014092914371520

El fijas El comando de formato acepta las siguientes cláusulas y opciones:

· DESDE

Nombre de archivo desde donde cargar los datos. Acepta un CODIFICACION opción. Utilizar el
- list-encodings opción para saber qué nombres de codificación son compatibles.

El nombre del archivo puede estar entre comillas simples y puede ser uno de los siguientes
valores especiales:

· en línea

Los datos se encuentran después del final de los comandos analizados. Cualquier cantidad de líneas vacías
entre el final de los comandos y el comienzo de los datos se acepta.

· stdin

Lee los datos del flujo de entrada estándar.

El DESDE La opción también admite una lista opcional separada por comas de campo nombres que describen
lo que se espera en el FIJO archivo de datos.

Cada nombre de campo está compuesto por el nombre de campo seguido de opciones específicas del lector para
Ese campo. Las opciones de lector por campo admitidas son las siguientes, donde solo comienzo y
de largo son requeridos.

· comienzo

Posición en la línea donde empezar a leer el valor de ese campo. Se puede ingresar con
dígitos decimales o 0x luego dígitos hexadecimales.

· de largo

¿Cuántos bytes leer del comienzo posición para leer el valor de ese campo. Mismo formato
as comienzo.

Estos parámetros opcionales deben ir entre corchetes y separados por comas:

· finalizado by

Ver la descripción de campo finalizado by abajo.

El procesamiento de esta opción no está implementado actualmente.

· datos formato

Cuando se espera el campo del tipo de fecha, esta opción permite especificar el
formato de fecha utilizado en el archivo.

Las cadenas de formato de fecha son cadenas de plantillas modeladas con PostgreSQL a_char
soporte de cadenas de plantilla, limitado a los siguientes patrones:

· YYYY, YYY, YY para la parte del año

· MM para la parte numérica del mes

· DD para la parte numérica del día

· HH, HH12, HH24 para la parte de la hora

· Am, am, am, am

· Pm, pm, pm, pm

· MI para la parte de las actas

· SS para la parte de los segundos

· MS para la parte de milisegundos (4 dígitos)

· EE. UU. Para la parte de microsegundos (6 dígitos)

· Signos de puntuación sin analizar: -. * # @ T / \ y espacio

A continuación se muestra un ejemplo de datos formato especificación:

nombre-columna [formato de fecha ´YYYY-MM-DD HH24-MI-SS.US´]

· nulo if

Esta opción toma un argumento que es la palabra clave espacios en blanco o una cita doble
cadena.

Cuándo espacios en blanco se utiliza y el valor del campo que se lee contiene solo caracteres de espacio,
luego se convierte automáticamente a un SQL NULL .

Cuando se usa una cadena entre comillas dobles y esa cadena se lee como el valor del campo, entonces
el valor del campo se convierte automáticamente a un SQL NULL .

· recortar ambas espacio en blanco, recortar left espacio en blanco, recortar un Derecho espacio en blanco

Esta opción permite recortar los espacios en blanco en los datos leídos, ya sea de ambos lados del
datos, o solo los caracteres de espacio en blanco que se encuentran a la izquierda del flujo, o solo
los de la derecha de la cadena.

· HE TRABAJADO

Al cargar desde un FIJO archivo, se admiten las siguientes opciones:

· truncar

Cuando esta opción aparece en la lista, pgloader emite un TRUNCAR comando contra el PostgreSQL
tabla de destino antes de leer el archivo de datos.

· inhabilitar dispara

Cuando esta opción aparece en la lista, pgloader emite un ALTER MESA DE NOCHE ... INHABILITAR GATILLO TODOS
comando contra la tabla de destino de PostgreSQL antes de copiar los datos, luego el comando
ALTER MESA DE NOCHE ... HABILITAR GATILLO TODOS una vez el COPIA está hecho.

Esta opción permite cargar datos en una tabla preexistente ignorando la extranjero clave
restricciones y desencadenantes definidos por el usuario y pueden resultar en inválidos extranjero clave
restricciones una vez que se cargan los datos. Úselo con cuidado.

· omitir encabezamiento

Toma un valor numérico como argumento. Indique a pgloader que se salte esa cantidad de líneas en el
comienzo del archivo de entrada.

CARGA COPIA FORMATEADO ARCHIVOS


Este comando indica a pgloader que cargue desde un archivo que contenga datos de COPY TEXT como
descrito en la documentación de PostgreSQL. Aquí tienes un ejemplo:

CARGAR COPIA
DE copia: //./data/track.copy
(
trackid, pista, álbum, medios, género, compositor,
milisegundos, bytes, precio unitario
)
EN postgresql: /// pgloader? Track_full

CON truncar

CONFIGURAR client_encoding a ´latin1´,
work_mem a ´14MB´,
cadenas_conforme_estándar a ´on´

ANTES DE CARGAR HACER
$$ eliminar tabla si existe track_full; $$,
$$ crear tabla track_full (
gran serie trackid,
seguimiento de texto,
texto del álbum,
texto multimedia,
texto de género,
texto del compositor,
milisegundos bigint,
bytes grandes,
precio unitario numérico
);
$$;

El COPIA El comando de formato acepta las siguientes cláusulas y opciones:

· DESDE

Nombre de archivo desde donde cargar los datos. Esto admite archivos locales, URL HTTP y zip
archivos que contienen un solo archivo dbf del mismo nombre. Obtenga un archivo zip de este tipo de un
Por supuesto, se admite la dirección HTTP.

· HE TRABAJADO

Al cargar desde un COPIA archivo, se admiten las siguientes opciones:

· delimitador

Toma un solo carácter como argumento, que se debe encontrar entre comillas simples, y
podría darse como el propio carácter imprimible, el valor especial \ t para denotar un
carácter de tabulación, o 0x luego un valor hexadecimal leído como el código ASCII para el
carácter.

Este carácter se utiliza como delimitador al leer los datos, de forma similar a la
PostgreSQL COPIA .

· nulo

Toma una cadena entre comillas como argumento (las comillas pueden ser comillas dobles o simples
comillas) y usa esa cadena como NULL representación en los datos.

Esto es similar a la nulo COPIA opción en PostgreSQL.

· truncar

Cuando esta opción aparece en la lista, pgloader emite un TRUNCAR comando contra el PostgreSQL
tabla de destino antes de leer el archivo de datos.

· inhabilitar dispara

Cuando esta opción aparece en la lista, pgloader emite un ALTER MESA DE NOCHE ... INHABILITAR GATILLO TODOS
comando contra la tabla de destino de PostgreSQL antes de copiar los datos, luego el comando
ALTER MESA DE NOCHE ... HABILITAR GATILLO TODOS una vez el COPIA está hecho.

Esta opción permite cargar datos en una tabla preexistente ignorando la extranjero clave
restricciones y desencadenantes definidos por el usuario y pueden resultar en inválidos extranjero clave
restricciones una vez que se cargan los datos. Úselo con cuidado.

· omitir encabezamiento

Toma un valor numérico como argumento. Indique a pgloader que se salte esa cantidad de líneas en el
comienzo del archivo de entrada.

CARGA DBF


Este comando indica a pgloader que cargue datos desde un DBF expediente. Aquí tienes un ejemplo:

CARGAR DBF
DESDE http://www.insee.fr/fr/methodes/nomenclatures/cog/telechargement/2013/dbf/reg2013.dbf
INTO postgresql: // usuario @ localhost / dbname
CON truncar, crear tabla;

El dbf El comando de formato acepta las siguientes cláusulas y opciones:

· DESDE

Nombre de archivo desde donde cargar los datos. Esto admite archivos locales, URL HTTP y zip
archivos que contienen un solo archivo dbf del mismo nombre. Obtenga un archivo zip de este tipo de un
Por supuesto, se admite la dirección HTTP.

· HE TRABAJADO

Al cargar desde un DBF archivo, se admiten las siguientes opciones:

· truncar

Cuando esta opción aparece en la lista, pgloader emite un TRUNCAR comando contra el PostgreSQL
tabla de destino antes de leer el archivo de datos.

· inhabilitar dispara

Cuando esta opción aparece en la lista, pgloader emite un ALTER MESA DE NOCHE ... INHABILITAR GATILLO TODOS
comando contra la tabla de destino de PostgreSQL antes de copiar los datos, luego el comando
ALTER MESA DE NOCHE ... HABILITAR GATILLO TODOS una vez el COPIA está hecho.

Esta opción permite cargar datos en una tabla preexistente ignorando la extranjero clave
restricciones y desencadenantes definidos por el usuario y pueden resultar en inválidos extranjero clave
restricciones una vez que se cargan los datos. Úselo con cuidado.

· Para crear mesa

Cuando esta opción aparece en la lista, pgloader crea la tabla utilizando los metadatos que se encuentran en
de la forma más DBF archivo, que debe contener una lista de campos con su tipo de datos. Un estandar
Se realiza la conversión del tipo de datos de DBF a PostgreSQL.

· mesa nombre

Esta opción espera como valor el nombre posiblemente calificado de la tabla a crear.

CARGA FIX


Este comando indica a pgloader que cargue datos desde un IBM FIX expediente. Aquí tienes un ejemplo:

CARGAR IXF
DESDE datos / nsitra.test1.ixf
EN postgresql: /// pgloader? Nsitra.test1
CON truncar, crear tabla

ANTES DE CARGAR HACER
$$ crear esquema si no existe nsitra; $$,
$$ eliminar tabla si existe nsitra.test1; $$;

El xf El comando de formato acepta las siguientes cláusulas y opciones:

· DESDE

Nombre de archivo desde donde cargar los datos. Esto admite archivos locales, URL HTTP y zip
archivos que contienen un solo archivo ixf del mismo nombre. Obtenga un archivo zip de este tipo de un
Por supuesto, se admite la dirección HTTP.

· HE TRABAJADO

Al cargar desde un FIX archivo, se admiten las siguientes opciones:

· truncar

Cuando esta opción aparece en la lista, pgloader emite un TRUNCAR comando contra el PostgreSQL
tabla de destino antes de leer el archivo de datos.

· inhabilitar dispara

Cuando esta opción aparece en la lista, pgloader emite un ALTER MESA DE NOCHE ... INHABILITAR GATILLO TODOS
comando contra la tabla de destino de PostgreSQL antes de copiar los datos, luego el comando
ALTER MESA DE NOCHE ... HABILITAR GATILLO TODOS una vez el COPIA está hecho.

Esta opción permite cargar datos en una tabla preexistente ignorando la extranjero clave
restricciones y desencadenantes definidos por el usuario y pueden resultar en inválidos extranjero clave
restricciones una vez que se cargan los datos. Úselo con cuidado.

· Para crear mesa

Cuando esta opción aparece en la lista, pgloader crea la tabla utilizando los metadatos que se encuentran en
de la forma más DBF archivo, que debe contener una lista de campos con su tipo de datos. Un estandar
Se realiza la conversión del tipo de datos de DBF a PostgreSQL.

· mesa nombre

Esta opción espera como valor el nombre posiblemente calificado de la tabla a crear.

CARGA ARCHIVO


Este comando indica a pgloader que cargue datos de uno o más archivos contenidos en un
archivo. Actualmente, el único formato de archivo admitido es ZIP, y el archivo podría ser
descargado de un HTTP URL.

Aquí tienes un ejemplo:

CARGAR ARCHIVO
DESDE /Users/dim/Downloads/GeoLiteCity-latest.zip
EN postgresql: /// ip4r

ANTES DE CARGAR
HACER $$ crear la extensión si no existe ip4r; $$,
$$ crear esquema si no existe geolita; $$,

EJECUTAR ´geolite.sql´

CARGAR CSV
DE COINCIDIR NOMBRE DE ARCHIVO ~ / GeoLiteCity-Location.csv /
CON CODIFICACIÓN iso-8859-1
(
identificación local,
país,
región nula si hay espacios en blanco,
ciudad nula si hay espacios en blanco,
postalCode nulo si hay espacios en blanco,
latitud,
longitud,
metroCode nulo si hay espacios en blanco,
areaCode nulo si hay espacios en blanco
)
EN postgresql: /// ip4r? Geolite.location
(
locid, país, región, ciudad, postalCode,
punto de ubicación utilizando (formato nil "(~ a, ~ a)" longitud y latitud),
metroCode, areaCode
)
CON encabezado de omisión = 2,
campos delimitados opcionalmente por ´ "´,
campos escapados por comillas dobles,
campos terminados por ´, ´

Y CARGAR CSV
DE COINCIDIR NOMBRE DE ARCHIVO ~ / GeoLiteCity-Blocks.csv /
CON CODIFICACIÓN iso-8859-1
(
startIpNum, endIpNum, locId
)
EN postgresql: /// ip4r? Geolite.blocks
(
iprange ip4r usando (ip-range startIpNum endIpNum),
ID loc
)
CON encabezado de omisión = 2,
campos delimitados opcionalmente por ´ "´,
campos escapados por comillas dobles,
campos terminados por ´, ´

FINALMENTE HACER
$$ crear index blocks_ip4r_idx en geolite.blocks usando gist (iprange); $$;

El Archivo El comando acepta las siguientes cláusulas y opciones:

· DESDE

Nombre de archivo o URI HTTP desde donde cargar los datos. Cuando se le da una URL HTTP, el enlace
El archivo se descargará localmente antes de procesarlo.

Si el archivo es un Código Postal archivo, la utilidad de línea de comando abrir la cremallera se utiliza para expandir el
archivar en archivos en $ TMPDIRo / Tmp if $ TMPDIR está desarmado o configurado como no existente
directorio.

Luego, los siguientes comandos se utilizan desde el directorio de nivel superior donde el archivo
se ha ampliado.

· Comando [ Y comando ...]

Una serie de comandos contra el contenido del archivo, de momento solo
CSV,REPARADO y DBF los comandos son compatibles.

Tenga en cuenta que los comandos son compatibles con la cláusula DESDE NOMBRE DEL ARCHIVO PAREO que permite el
El comando pgloader no depende de los nombres exactos de los directorios de archivos.

La misma cláusula también se puede aplicar a varios archivos con el uso de la ortografía DESDE TODOS
NOMBRES DE ARCHIVOS PAREO y una expresión regular.

El conjunto pareo La cláusula debe seguir la siguiente regla:

DE [TODOS LOS ARCHIVOS | [FIRST] FILENAME] COINCIDIR

· FINALMENTE DO

Consultas SQL para ejecutar una vez que se cargan los datos, como CREAR ÍNDICE.

CARGA MYSQL BASE DE DATOS


Este comando indica a pgloader que cargue datos desde una conexión de base de datos. Lo único
La fuente de base de datos admitida es actualmente MySQLy pgloader admite la conversión dinámica
el esquema de la base de datos de origen y la construcción de índices.

Se proporciona un conjunto predeterminado de reglas de conversión y el
mando.

Aquí tienes un ejemplo:

CARGAR BASE DE DATOS
DESDE mysql: // Root@ localhost / sakila
EN postgresql: // localhost: 54393 / sakila

CON incluye soltar, crear tablas, crear índices, restablecer secuencias

AJUSTE maintenance_work_mem en ´128MB´,
work_mem a ´12MB´,
ruta_de_búsqueda a ´sakila´

CAST tipo datetime to timestamptz drop default drop no null usando zero-date-to-null,
tipo date drop not null drop default usando cero-fechas-a-nulo,
- escriba tinyint a boolean usando tinyint-to-boolean,
escriba año en entero

MATERIALIZAR VISTAS film_list, staff_list

- INCLUYENDO ÚNICAMENTE LOS NOMBRES DE MESA QUE COINCIDEN ~ / película /, 'actor'
- EXCLUYENDO LOS NOMBRES DE MESA QUE COINCIDEN ~
- COINCIDIR NOMBRES DE MESA DE DECODIFICACIÓN ~ / desordenado /, ~ / codificación / COMO utf8

ANTES DE CARGAR HACER
$$ crear esquema si no existe sakila; $$;

El base de datos El comando acepta las siguientes cláusulas y opciones:

· DESDE

Debe ser una URL de conexión que apunte a una base de datos MySQL. Por el momento, solo MySQL es
soportado como fuente de pgloader.

Si el URI de conexión contiene un nombre de tabla, solo esta tabla se migra desde
MySQL a PostgreSQL.

· HE TRABAJADO

Al cargar desde un MySQL base de datos, se admiten las siguientes opciones y
defecto HE TRABAJADO la cláusula es: no truncar, Para crear TABURETES, incluir caer, Para crear índices, reajustar
secuencias, extranjero claves, minúsculo Identificadores.

HE TRABAJADO opciones:

· incluir caer

Cuando esta opción aparece en la lista, pgloader descarta todas las tablas en el PostgreSQL de destino
base de datos cuyos nombres aparecen en la base de datos SQLite. Esta opción permite utilizar el
mismo comando varias veces seguidas hasta que descubra todas las opciones, comenzando
automáticamente desde un entorno limpio. Tenga en cuenta que CASCADE se utiliza para asegurar
que las tablas se eliminan incluso si hay claves externas apuntando a ellas. Este es
precisamente que incluir caer está destinado a hacer: eliminar todas las tablas de destino y volver a crear
de ellas.

Se debe tener mucho cuidado al usar incluir caer, ya que caerá en cascada a all
objetos que hacen referencia a las tablas de destino, posiblemente incluyendo otras tablas que no son
se está cargando desde la base de datos de origen.

· incluir no caer

Cuando se enumera esta opción, pgloader no incluirá ninguna DROP declaración al cargar
los datos.

· truncar

Cuando esta opción aparece en la lista, pgloader emite el TRUNCAR mando contra cada uno
Tabla de PostgreSQL justo antes de cargar datos en ella.

· no truncar

Cuando esta opción aparece en la lista, pgloader no emite TRUNCAR mando.

· inhabilitar dispara

Cuando esta opción aparece en la lista, pgloader emite un ALTER MESA DE NOCHE ... INHABILITAR GATILLO TODOS
comando contra la tabla de destino de PostgreSQL antes de copiar los datos, luego el comando
ALTER MESA DE NOCHE ... HABILITAR GATILLO TODOS una vez el COPIA está hecho.

Esta opción permite cargar datos en una tabla preexistente ignorando la extranjero clave
restricciones y desencadenantes definidos por el usuario y pueden resultar en inválidos extranjero clave
restricciones una vez que se cargan los datos. Úselo con cuidado.

· Para crear TABURETES

Cuando esta opción aparece en la lista, pgloader crea la tabla utilizando los metadatos que se encuentran en
de la forma más MySQL archivo, que debe contener una lista de campos con su tipo de datos. Un estandar
Se realiza la conversión del tipo de datos de DBF a PostgreSQL.

· Para crear no TABURETES

Cuando esta opción aparece en la lista, pgloader omite la creación de la tabla antes de cargar los datos,
Las tablas de destino ya deben existir.

· Para crear índices

Cuando esta opción aparece en la lista, pgloader obtiene las definiciones de todos los índices que se encuentran en
la base de datos MySQL y cree el mismo conjunto de definiciones de índice contra PostgreSQL
base de datos.

· Para crear no índices

Cuando esta opción aparece en la lista, pgloader omite la creación de índices.

· uniquificar índice nombres, preservar índice nombres

Los nombres de índice de MySQL son únicos por tabla, mientras que en PostgreSQL los nombres de índice deben ser
único por esquema. El valor predeterminado para pgloader es cambiar el nombre del índice mediante el prefijo
con idx_OID donde OID es el identificador numérico interno de la tabla el índice es
construido contra.

En algunos casos, como cuando el DDL se deja completamente en un marco, podría ser sensato
para que pgloader se abstenga de manejar nombres únicos de índice, eso se logra usando
de la forma más preservar índice nombres .

El valor predeterminado es uniquificar índice nombres.

Incluso cuando se usa la opción preservar índice nombres, Índices de clave primaria de MySQL llamados
"PRIMARY" obtendrá sus nombres sin aclarar. No hacerlo evitaría la
claves para ser creadas nuevamente en PostgreSQL donde los nombres de índice deben ser únicos por
esquema.

· extranjero claves

Cuando se enumera esta opción, pgloader obtiene las definiciones de todas las claves externas
que se encuentran en la base de datos MySQL y crean el mismo conjunto de definiciones de claves externas contra
la base de datos PostgreSQL.

· no extranjero claves

Cuando esta opción aparece en la lista, pgloader omite la creación de claves externas.

· reajustar secuencias

Cuando esta opción aparece en la lista, al final de la carga de datos y después de que los índices hayan
todo ha sido creado, pgloader restablece todas las secuencias de PostgreSQL creadas a la actual
valor máximo de la columna a la que están adjuntos.

Las opciones Esquema only y datos only no tienen ningún efecto sobre esta opción.

· reajustar no secuencias

Cuando esta opción aparece en la lista, pgloader omite las secuencias de reinicio después de la carga.

Las opciones Esquema only y datos only no tienen ningún efecto sobre esta opción.

· minúsculo Identificadores

Cuando esta opción aparece en la lista, pgloader convierte todos los identificadores de MySQL (nombres de tablas,
nombres de índice, nombres de columna) para minúsculo, excepto para PostgreSQL reservados palabras clave

El PostgreSQL reservados las palabras clave se determinan dinámicamente mediante el uso del sistema
función pg_get_keywords ().

· cotización inicial Identificadores

Cuando esta opción aparece en la lista, pgloader cita todos los identificadores de MySQL para que su caso
es respetado. Tenga en cuenta que luego tendrá que hacer lo mismo en su aplicación
consultas de código.

· Esquema only

Cuando esta opción aparece en la lista, pgloader se abstiene de migrar los datos. Tenga en cuenta que
el esquema en este contexto incluye los índices cuando la opción Para crear índices tiene
sido listado.

· datos only

Cuando esta opción aparece en la lista, pgloader solo emite COPIA declaraciones, sin hacer ninguna
otro procesamiento.

· REPARTO

La cláusula de conversión permite especificar reglas de conversión personalizadas, ya sea para sobrecargar las predeterminadas
reglas de casting o modificarlas en casos especiales.

Se espera que una regla de conversión siga una de las formas:

escribe [ ... ] para [ ...]
columna . [ ] a ...

Es posible que fundición gobernar para hacer coincidir con un tipo de datos MySQL o con un
given visión de conjunto nombre en un dado mesa nombre . Esa flexibilidad permite hacer frente a casos en los que
el tipo diminuto podría haber sido utilizado como un booleano en algunos casos, pero como letra pequeña in
otros.

El fundición reglas se aplican en orden, la primera coincidencia evita que las siguientes reglas sean
aplica, y las reglas definidas por el usuario se evalúan primero.

Los protectores soportados son:

· when tu préstamo estudiantil valor

La regla de conversión solo se aplica a las columnas de MySQL del tipo de fuente que tienen
given propuesta de, que debe ser una cadena entre comillas simples o entre comillas dobles.

· when tipomod expresión

La regla de conversión solo se aplica a las columnas de MySQL del tipo de fuente que tienen un
tipomod valor que coincide con el dado tipomod expresión. tipomod se separa en su
precisión y escala componentes.

Ejemplo de una regla de lanzamiento usando un tipomod Guardia:

escriba char cuando (= precisión 1) para char mantener typemod

Esta expresión lanza MySQL tanque(1) columna a una columna de PostgreSQL de tipo tanque(1) mientras
teniendo en cuenta el caso general char (N) se convertirá por la regla de conversión predeterminada en un
Tipo de PostgreSQL varchar (N).

· con trabajo autoincremento

La regla de conversión solo se aplica a las columnas de MySQL que tienen la trabajo visión de conjunto
autoincremento conjunto de opciones, de modo que sea posible apuntar, por ejemplo, de serie más bien que
entero.

El comportamiento de coincidencia predeterminado, cuando esta opción no está configurada, es hacer coincidir ambas columnas
con la definición extra y sin ella.

Esto significa que si desea implementar una regla de conversión que apunte a de serie or
entero de un letra pequeña definición dependiendo de la autoincremento un poco más de
información de MySQL, debe especificar dos reglas de conversión de la siguiente manera:

escriba smallint con auto_increment adicional
para el tipo de caída en serie mod mantener el valor predeterminado no mantener nulo,
tipo smallint
para soltar enteros typemod mantener predeterminado mantener no nulo

Las opciones de fundición admitidas son:

· caer tu préstamo estudiantil, keep tu préstamo estudiantil

Cuando la opcion caer tu préstamo estudiantil aparece, pgloader descarta cualquier expresión predeterminada existente
en la base de datos MySQL para columnas del tipo fuente de la CREAR MESA DE NOCHE ambiental
genera.

La ortografía keep tu préstamo estudiantil previene explícitamente ese comportamiento y se puede utilizar para
sobrecargar las reglas de casting predeterminadas.

· caer no nulo, keep no nulo

Cuando la opcion caer no nulo aparece en la lista, pgloader descarta cualquier NOT NULL
restricción asociada con el tipo de datos MySQL de origen dado cuando crea las tablas
en la base de datos PostgreSQL.

La ortografía keep no nulo previene explícitamente ese comportamiento y se puede utilizar para
sobrecargar las reglas de casting predeterminadas.

· caer tipomod, keep tipomod

Cuando la opcion caer tipomod aparece en la lista, pgloader descarta cualquier tipomod definición
(p.ej precisión y escala) de la definición de tipo de datos que se encuentra en las columnas de MySQL de
el tipo de fuente cuando creó las tablas en la base de datos PostgreSQL.

La ortografía keep tipomod previene explícitamente ese comportamiento y se puede utilizar para
sobrecargar las reglas de casting predeterminadas.

· usando

Esta opción toma como argumento único el nombre de una función que se encuentra en el
pgloader.transforma Paquete Common Lisp. Consulte más arriba para obtener más detalles.

Es posible aumentar una regla de lanzamiento predeterminada (como una que se aplica contra ENUM
tipo de datos, por ejemplo) con un función omitiendo por completo el tipo
partes de la regla de lanzamiento, como en el siguiente ejemplo:

column enumerate.foo usando una cadena vacía a nulo

· MATERIALIZAR PUNTOS DE VISTA

Esta cláusula le permite implementar el procesamiento de datos personalizado en la fuente de datos al
proporcionando un view definición contra el cual pgloader consultará los datos. No es
posible permitir simplemente SQL porque queremos saber mucho sobre la exacta
tipos de datos de cada columna involucrada en la salida de la consulta.

Esta cláusula espera una lista separada por comas de definiciones de vista, cada una de las cuales es
el nombre de una vista existente en su base de datos o la siguiente expresión:

nombre AS $$ sql pregunta $$

El nombre y la sql pregunta se utilizará en un CREAR VER declaración al comienzo de
la carga de datos, y la vista resultante se eliminará al final de los datos
cargando.

· MATERIALIZAR TODOS PUNTOS DE VISTA

Mismo comportamiento que MATERIALIZAR PUNTOS DE VISTA utilizando la lista dinámica de vistas según lo devuelto por
MySQL en lugar de pedirle al usuario que especifique la lista.

· INCLUSO ÚNICO MESA DE NOCHE NOMBRES PAREO

Introduzca una lista de nombres de tablas separados por comas o regular expresión solía limitar
las tablas para migrar a una sublista.

Ejemplo:

INCLUYENDO ÚNICAMENTE LOS NOMBRES DE TABLAS QUE COINCIDEN ~ / película /, 'actor'

· EXCLUYENDO MESA DE NOCHE NOMBRES PAREO

Introduzca una lista de nombres de tablas separados por comas o regular expresión utilizado para excluir
nombres de tablas de la migración. Este filtro solo se aplica al resultado de la
INCLUSO filtrar.

EXCLUYENDO LOS NOMBRES DE MESA QUE COINCIDEN ~

· DESCODIFICACIÓN MESA DE NOCHE NOMBRES PAREO

Introduzca una lista de nombres de tablas separados por comas o regular expresiones solía forzar
la codificación que se utilizará al procesar datos de MySQL. Si conoce la codificación de datos
es diferente a la idea de MySQL al respecto, esta es la opción a utilizar.

COINCIDIR NOMBRES DE TABLA DE DECODIFICACIÓN ~ / desordenado /, ~ / codificación / COMO utf8

Puede utilizar tantas reglas como necesite, todas con codificaciones posiblemente diferentes.

LIMITACIONES
El base de datos El comando actualmente solo es compatible con la base de datos de origen MySQL y tiene lo siguiente
limitaciones:

· Las vistas no se migran,

Las vistas compatibles pueden requerir la implementación de un analizador SQL completo para el dialecto MySQL
con un motor de transferencia para reescribir el SQL contra PostgreSQL, incluido el cambio de nombre
funciones y cambiar algunas construcciones.

Si bien no es teóricamente imposible, no contenga la respiración.

· Los disparadores no se migran

Aún no se ha evaluado la dificultad de hacerlo.

· ON ACTUALIZAR FECHA Y HORA ACTUAL actualmente no está migrado

Es bastante simple de implementar, pero aún no está en la lista de prioridades.

· De los tipos de datos geométricos, solo los drive Se ha cubierto la base de datos. Los otros
debería ser bastante fácil de implementar ahora, simplemente no está hecho todavía.

DEFAULT MySQL CASTING REGLAS
Al migrar desde MySQL, se proporcionan las siguientes reglas de conversión:

Números:

· Escriba int con auto_increment adicional a serial cuando (<precisión 10)

· Escriba int con auto_increment adicional a bigserial cuando (<= 10 precisión)

· Escribe int a int cuando (<precisión 10)

· Escribe int a bigint cuando (<= 10 precisión)

· Escriba tinyint con auto_increment adicional al serial

· Escriba smallint con auto_increment adicional al serial

· Escriba mediumint con auto_increment adicional a serial

· Escriba bigint con auto_increment adicional a bigserial

· Escriba tinyint a booleano cuando (= 1 precisión) usando tinyint-to-boolean

· Escriba tinyint a smallint drop typemod

· Escriba smallint a smallint drop typemod

· Escriba mediumint a entero drop typemod

· Escriba entero a entero drop typemod

· Escriba flotar para flotar drop typemod

· Escribe bigint a bigint drop typemod

· Tipo gota de precisión doble a doble typemod

· Escriba numérico a numérico mantenga typemod

· Escribir decimal a decimal mantener typemod

Textos:

· Escriba char a varchar mantenga typemod

· Escribe varchar al texto

· Escribe tinytext en texto

· Escribir texto a texto

· Escribe texto medio a texto

· Escribe texto largo en texto

Binario:

· Escribe binario a bytea

· Escribe varbinary a bytea

· Escribe tinyblob a bytea

· Escribe blob en bytea

· Escriba mediumblob a bytea

· Escribe longblob a bytea

Fecha:

· Escriba fecha y hora cuando el valor predeterminado es "0000-00-00 00:00:00" y no nulo para la fecha y hora no se eliminan
null drop default usando cero-fechas-a-nulo

· Escriba la fecha y hora cuando el valor predeterminado es "0000-00-00 00:00:00" en la fecha y la hora y el uso predeterminado
cero-fechas-a-nulo

· Escriba la marca de tiempo cuando el valor predeterminado es "0000-00-00 00:00:00" y no es nulo para no eliminar la marca de tiempo
null drop default usando cero-fechas-a-nulo

· Escriba la marca de tiempo cuando el valor predeterminado es "0000-00-00 00:00:00" para colocar la marca de tiempo por defecto usando
cero-fechas-a-nulo

· Escriba la fecha cuando el valor predeterminado es "0000-00-00" hasta la fecha de caída predeterminada usando cero-fechas-a-nulo

· Escriba fecha hasta la fecha

· Escriba datetime en timestamptz

· Escriba la marca de tiempo en la marca de tiempo

· Escriba año a entero drop typemod

Geométrico:

· Escriba punto a punto usando pgloader.transforms :: convert-mysql-point

Los tipos de enumeración se declaran en línea en MySQL y por separado con un CREAR TIPO comando en
PostgreSQL, por lo que cada columna de Enum Type se convierte en un tipo con el nombre de la tabla y
nombres de columna definidos con las mismas etiquetas en el mismo orden.

Cuando la definición del tipo de fuente no coincide con las reglas de conversión predeterminadas ni en el
las reglas de conversión proporcionadas en el comando, luego se usa el nombre del tipo con typemod.

CARGA SQLite BASE DE DATOS


Este comando indica a pgloader que cargue datos desde un archivo SQLite. Descubrimiento automático de
el esquema es compatible, incluida la construcción de los índices.

Aquí tienes un ejemplo:

cargar base de datos
de sqlite: ///Users/dim/Downloads/lastfm_tags.db
en postgresql: /// etiquetas

con incluir soltar, crear tablas, crear índices, restablecer secuencias

establezca work_mem en ´16MB´, maintenance_work_mem en ´512 MB´;

El sqlite El comando acepta las siguientes cláusulas y opciones:

· DESDE

Ruta o URL HTTP a un archivo SQLite, puede ser una .zip archivo.

· HE TRABAJADO

Al cargar desde un SQLite base de datos, se admiten las siguientes opciones:

Al cargar desde un SQLite base de datos, se admiten las siguientes opciones y
tu préstamo estudiantil HE TRABAJADO la cláusula es: no truncar, Para crear TABURETES, incluir caer, Para crear índices,
reajustar secuencias, minúsculo Identificadores, codificación 'utf-8'.

· incluir caer

Cuando esta opción aparece en la lista, pgloader descarta todas las tablas en el PostgreSQL de destino
base de datos cuyos nombres aparecen en la base de datos SQLite. Esta opción permite utilizar el
mismo comando varias veces seguidas hasta que descubra todas las opciones, comenzando
automáticamente desde un entorno limpio. Tenga en cuenta que CASCADE se utiliza para asegurar
que las tablas se eliminan incluso si hay claves externas apuntando a ellas. Este es
precisamente que incluir caer está destinado a hacer: eliminar todas las tablas de destino y volver a crear
de ellas.

Se debe tener mucho cuidado al usar incluir caer, ya que caerá en cascada a all
objetos que hacen referencia a las tablas de destino, posiblemente incluyendo otras tablas que no son
se está cargando desde la base de datos de origen.

· incluir no caer

Cuando se enumera esta opción, pgloader no incluirá ninguna DROP declaración al cargar
los datos.

· truncar

Cuando esta opción aparece en la lista, pgloader emite el TRUNCAR mando contra cada uno
Tabla de PostgreSQL justo antes de cargar datos en ella.

· no truncar

Cuando esta opción aparece en la lista, pgloader no emite TRUNCAR mando.

· inhabilitar dispara

Cuando esta opción aparece en la lista, pgloader emite un ALTER MESA DE NOCHE ... INHABILITAR GATILLO TODOS
comando contra la tabla de destino de PostgreSQL antes de copiar los datos, luego el comando
ALTER MESA DE NOCHE ... HABILITAR GATILLO TODOS una vez el COPIA está hecho.

Esta opción permite cargar datos en una tabla preexistente ignorando la extranjero clave
restricciones y desencadenantes definidos por el usuario y pueden resultar en inválidos extranjero clave
restricciones una vez que se cargan los datos. Úselo con cuidado.

· Para crear TABURETES

Cuando esta opción aparece en la lista, pgloader crea la tabla utilizando los metadatos que se encuentran en
de la forma más SQLite archivo, que debe contener una lista de campos con su tipo de datos. Un estandar
Se realiza la conversión del tipo de datos de DBF a PostgreSQL.

· Para crear no TABURETES

Cuando esta opción aparece en la lista, pgloader omite la creación de la tabla antes de cargar los datos,
Las tablas de destino ya deben existir.

· Para crear índices

Cuando esta opción aparece en la lista, pgloader obtiene las definiciones de todos los índices que se encuentran en
la base de datos SQLite y crear el mismo conjunto de definiciones de índice contra el
Base de datos PostgreSQL.

· Para crear no índices

Cuando esta opción aparece en la lista, pgloader omite la creación de índices.

· reajustar secuencias

Cuando esta opción aparece en la lista, al final de la carga de datos y después de que los índices hayan
todo ha sido creado, pgloader restablece todas las secuencias de PostgreSQL creadas a la actual
valor máximo de la columna a la que están adjuntos.

· reajustar no secuencias

Cuando esta opción aparece en la lista, pgloader omite las secuencias de reinicio después de la carga.

Las opciones Esquema only y datos only no tienen ningún efecto sobre esta opción.

· Esquema only

Cuando esta opción aparece en la lista, pgloader se abstendrá de migrar los datos. Nota
que el esquema en este contexto incluye los índices cuando la opción Para crear índices
ha sido listado.

· datos only

Cuando esta opción aparece en la lista, pgloader solo emite COPIA declaraciones, sin hacer ninguna
otro procesamiento.

· codificación

Esta opción permite controlar con qué codificación analizar los datos de texto SQLite.
Por defecto es UTF-8.

· REPARTO

La cláusula de conversión permite especificar reglas de conversión personalizadas, ya sea para sobrecargar las predeterminadas
reglas de casting o modificarlas en casos especiales.

Consulte la cláusula CAST de MySQL para obtener más detalles.

· INCLUSO ÚNICO MESA DE NOCHE NOMBRES PAREO

Introduzca una lista de nombres de tablas separados por comas o regular expresión solía limitar
las tablas para migrar a una sublista.

Ejemplo:

INCLUYENDO ÚNICAMENTE LOS NOMBRES DE TABLAS QUE COINCIDEN ~ / película /, 'actor'

· EXCLUYENDO MESA DE NOCHE NOMBRES PAREO

Introduzca una lista de nombres de tablas separados por comas o regular expresión utilizado para excluir
nombres de tablas de la migración. Este filtro solo se aplica al resultado de la
INCLUSO filtrar.

EXCLUYENDO LOS NOMBRES DE MESA QUE COINCIDEN ~

DEFAULT SQLite CASTING REGLAS
Al migrar desde SQLite, se proporcionan las siguientes reglas de conversión:

Números:

· Escriba tinyint a smallint

· Escriba entero a bigint

· Escriba float para flotar usando float-to-string

· Escribe de real a real usando float-to-string

· Escriba doble a doble precisión usando float-to-string

· Escriba de numérico a numérico usando float-to-string

Textos:

· Escribe carácter a texto drop typemod

· Escribe varchar para soltar texto typemod

· Escribe nvarchar para soltar texto typemod

· Escribe char a texto drop typemod

· Escribe nchar para soltar texto typemod

· Escribe nvarchar para soltar texto typemod

· Escribe clob para soltar texto typemod

Binario:

· Escribe blob en bytea

Fecha:

· Escriba datetime a timestamptz usando sqlite-timestamp-to-timestamp

· Escriba la marca de tiempo en la marca de tiempo usando sqlite-timestamp-to-timestamp

· Escriba timestamptz a timestamptz usando sqlite-timestamp-to-timestamp

CARGA MS SQL BASE DE DATOS


Este comando indica a pgloader que cargue datos desde una base de datos MS SQL. Descubrimiento automático
del esquema es compatible, incluida la construcción de los índices, claves primarias y externas
restricciones

Aquí tienes un ejemplo:

cargar base de datos
de mssql: // usuario @ host / dbname
en postgresql: /// dbname

incluyendo solo nombres de tablas como ´GlobalAccount´ en el esquema ´dbo´

establezca work_mem en ´16MB´, maintenance_work_mem en ´512 MB´

antes de cargar hacer $$ drop esquema si existe dbo cascade; $$;

El mssql El comando acepta las siguientes cláusulas y opciones:

· DESDE

Cadena de conexión a un servidor de base de datos MS SQL existente que escucha y da la bienvenida
conexión TCP / IP externa. Como pgloader actualmente se suma al controlador FreeTDS, para
cambie el puerto del servidor por favor exporte el TDSPORT Variable ambiental.

· HE TRABAJADO

Al cargar desde un MS SQL base de datos, las mismas opciones que al cargar una MySQL base de datos
son compatibles. Consulte la sección MySQL. Se agregan las siguientes opciones:

· Para crear esquemas

Cuando esta opción aparece en la lista, pgloader crea los mismos esquemas que se encuentran en MS SQL
ejemplo. Este es el predeterminado.

· Para crear no esquemas

Cuando esta opción aparece en la lista, pgloader se abstiene de crear esquemas, usted
luego debe asegurarse de que exista el esquema de destino.

· REPARTO

La cláusula de conversión permite especificar reglas de conversión personalizadas, ya sea para sobrecargar las predeterminadas
reglas de casting o modificarlas en casos especiales.

Consulte la cláusula CAST de MySQL para obtener más detalles.

· INCLUSO ÚNICO MESA DE NOCHE NOMBRES COMO ´ ... ´ [, ´ ... ´] IN ESQUEMA ´ ... ´

Introduzca una lista separada por comas de patrones de nombres de tablas utilizados para limitar las tablas a
migrar a una sublista. Se puede utilizar más de una cláusula de este tipo, se acumularán
juntos.

Ejemplo:

incluyendo solo los nombres de tabla lile ´GlobalAccount´ en el esquema ´dbo´

· EXCLUYENDO MESA DE NOCHE NOMBRES COMO ´ ... ´ [, ´ ... ´] IN ESQUEMA ´ ... ´

Introduzca una lista separada por comas de patrones de nombres de tablas que se utilizan para excluir nombres de tablas.
de la migración. Este filtro solo se aplica al resultado de la INCLUSO filtrar.

EXCLUYENDO LOS NOMBRES DE TABLA QUE COINCIDEN CON ´LocalAccount´ en el esquema ´dbo´

DEFAULT MS SQL CASTING REGLAS
Al migrar desde MS SQL, se proporcionan las siguientes reglas de conversión:

Números:

· Escriba tinyint a smallint

· Escriba float para flotar usando float-to-string

· Escribe de real a real usando float-to-string

· Escriba doble a doble precisión usando float-to-string

· Escriba de numérico a numérico usando float-to-string

· Escribe decimal a numérico usando float-to-string

· Escribe dinero a numérico usando float-to-string

· Escriba smallmoney a numérico usando float-to-string

Textos:

· Escribe char a texto drop typemod

· Escribe nchat para soltar texto typemod

· Escribe varchar para soltar texto typemod

· Escribe nvarchar para soltar texto typemod

· Escribe xml para soltar texto typemod

Binario:

· Escribe binario a bytea usando byte-vector-to-bytea

· Escribe varbinary a bytea usando byte-vector-to-bytea

Fecha:

· Escriba datetime en timestamptz

· Escriba datetime2 en timestamptz

Otros:

· Escribe bit a booleano

· Escriba jerarquía en bytea

· Escribe geografía en bytea

· Escriba un identificador único en uuid usando sql-server-uniqueidentifier-to-uuid

TRANSFORMACIÓN Las funciones


Algunos tipos de datos se implementan de una manera lo suficientemente diferente como para que una función de transformación
es necesario. Esta función debe estar escrita en Algunos ceceo y se busca en el
pgloader.transforma Pack

Algunas funciones de transformación predeterminadas se proporcionan con pgloader, y puede utilizar el
--carga opción de línea de comando para cargar y compilar su propio archivo lisp en pgloader en
tiempo de ejecución. Para encontrar sus funciones, recuerde comenzar su archivo lisp con el
siguiente forma:

(en el paquete #: pgloader.transforms)

Las funciones de transformación proporcionadas son:

· cero-fechas-a-nulo

Cuando la fecha de entrada sea todo ceros, regrese cero, que se carga como PostgreSQL NULL
.

· fecha-sin-separador

Aplica cero-fechas-a-nulo luego transforma la fecha dada en un formato que PostgreSQL
realmente procesará:

En: "20041002152952"
Out: "2004-10-02 15:29:52"

· tiempo-sin-separador

Transforme el tiempo dado en un formato que PostgreSQL realmente procesará:

En: "08231560"
Fuera: "08: 23: 15.60"

· tinyint a booleano

Como MySQL carece de un tipo booleano adecuado, diminuto se utiliza a menudo para implementar eso. Esta
la función se transforma 0 a falso y cualquier otra cosa para cierto.

· bits a booleano

Como MySQL carece de un tipo booleano adecuado, BIT se utiliza a menudo para implementar eso. Esta
función transforma vectores de bits de 1 bit de 0 a f y cualquier otro valor para t..

· int-a-ip

Convierta un número entero en una representación punteada de un ip4.

En: 18435761
Fuera: "1.25.78.177"

· rango de ip

Convierte un par de enteros dados como cadenas en un rango de ip4.

En: "16825344" "16825599"
Fuera: "1.0.188.0-1.0.188.255"

· convertir-mysql-point

Se convierte de la astexto representación de puntos en MySQL en PostgreSQL
representación.

En: "PUNTO (48.5513589 7.6926827)"
Fuera: "(48.5513589,7.6926827)"

· flotar a cuerda

Convierte un flotante Common Lisp en una cadena adecuada para un flotante PostgreSQL:

En: 100.0d0
Fuera: "100.0"

· conjunto-a-enum-array

Convierte una cadena que representa un SET de MySQL en una matriz de PostgreSQL de valores de Enum de
el conjunto.

En: "foo, bar"
Fuera: "{foo, bar}"

· cadena-vacía-a-nulo

Convierte una cadena vacía en nula.

· trimg a la derecha

Quite los espacios en blanco al final de la cuerda.

· byte-vector-a-bytea

Transforme una matriz simple de bytes sin firmar al formato hexadecimal bytea de PostgreSQL
representación según lo documentado en
http://www.postgresql.org/docs/9.3/interactive/datatype-binary.html

· sqlite-timestamp-a-timestamp

El sistema de tipos SQLite es bastante interesante, así que conviértalo aquí para producir una marca de tiempo
literales como esperaba PostgreSQL. Eso cubre el año solo en 4 dígitos, 0 fechas para
cadenas de fecha nulas y adecuadas.

· identificador-único-del-servidor-sql-a-uuid

El controlador de SQL Server recibe datos de tipo identificador único como un vector de bytes que
luego debe convertir a una cadena UUID para procesar el formato de entrada COPY de PostgreSQL.

· Unix-timestamp-a-timestamptz

Convierte una marca de tiempo de Unix (número de segundos transcurridos desde principios de 1970) en un
formato adecuado de marca de tiempo de PostgreSQL.

CARGA MENSAJES


Este comando aún es experimental y permite recibir mensajes a través de UDP usando un syslog
como formato y, dependiendo de la coincidencia de reglas, carga porciones con nombre del flujo de datos en
una mesa de destino.

CARGAR MENSAJES
DESDE syslog: // localhost: 10514 /

CUANDO COINCIDE rsyslog-msg EN Apache
REGISTRO de marca de tiempo, ip, resto
EN postgresql: // localhost / db? Logs.apache
SET guc_1 = "valor", guc_2 = "otro valor"

CUANDO COINCIDE con rsyslog-msg EN otros
REGISTRO de marca de tiempo, nombre de la aplicación, datos
EN postgresql: // localhost / db? Logs.others
SET guc_1 = "valor", guc_2 = "otro valor"

CON apache = rsyslog
DATOS = IP DESCANSO
IP = 1 * 3DIGIT "." 1 * 3DIGIT "." 1 * 3DIGIT "." 1 * 3DIGIT
DESCANSO = ~ /.*/

CON otros = rsyslog;

Como el comando aún es experimental, las opciones pueden cambiarse en el futuro y el
los detalles no están documentados.

Use pgloader en línea usando los servicios de onworks.net


Servidores y estaciones de trabajo gratuitos

Descargar aplicaciones de Windows y Linux

Comandos de Linux

Ad