Accéder au contenu principal Passer au contenu complémentaire

Script SQL DDL de la base de données Databricks Delta Lake Hadoop Hive - Import

Availability-note AWS

Spécifications du pont

Fournisseur Databricks
Nom de l'outil Base de données Delta Lake Hadoop Hive
Version de l'outil Hive 2.x à 3.x - Azure Databricks 8.x à 9.x
Site Web de l'outil https://databricks.com/product/delta-lake-on-databricks
Méthodologie supportée [Base de données relationnelle] Multimodèle, Data Store (Modèle de données physique), (Parsage d'expressions) via un fichier SQL TXT
Profiling de données
Collecte incrémentale
Collecte multi-modèle
Navigation dans le référentiel distant pour sélectionner un modèle

SPÉCIFICATIONS
Outil : Databricks/Base de données Delta Lake Hadoop Hive version Hive 2.x à 3.x - Azure Databricks 8.x à 9.x via un fichier SQL TXT
Consultez https://databricks.com/product/delta-lake-on-databricks
Métadonnées : [Base de données relationnelle] Multimodèle, Data Store (Modèle de données physique), Parsage d'expressions)
Composant : DdlScriptApacheHiveQLImport.Databricks version 11.2.0

VUE D'ENSEMBLE
Ce pont parse un répertoire de scripts Hive SQL Data Definition Language (SQL DDL) pour extraire toutes ses métadonnées (par ex. schémas, tables, colonnes, types de données) et parser tout SQL (par ex. vues, procédures stockées) pour produire le lignage du flux de données.

- DDL vs JDBC :
Ce pont d'import parse les instructions SQL DDL créant des schémas, tables, vues, procédures stockées, etc. (généralement compilées dans la base de données). Ces scripts DDL SQL peuvent être incomplets et peuvent ne pas être synchronisés avec la base de données actuelle. Pour cette raison, préférez toujours le pont d'import important des métadonnées de la base de données active via JDBC, plutôt que ce pont d'import analysant le DDL SQL (voir les limitations ci-dessous).

- DDL vs DML :
Ce pont d'import parse uniquement les instructions SQL Data Definition Language (DDL) créant des schémas, tables, vues, procédures stockées, etc. et créant donc un modèle de données de la base de données. Si les scripts SQL contiennent également des instructions pour insérer, mettre à jour ou supprimer des données dans des tables, vous devez également utiliser le pont d'import important depuis le SQL Data Manipulation Language (DML) complet créant un modèle d'intégration de données (DI/ETL/ELT).

PRÉREQUIS
n/a

FOIRE AUX QUESTIONS
Q : Quelle est la marche à suivre pour obtenir un DDL d'un serveur Hadoop Hive ?
R : Utilisez l'utilitaire fourni dans "${MODEL_BRIDGE_HOME}/bin/hive_generate_ddl.sh". Placez cet utilitaire sur le cluster Hive (l'emplacement n'a pas d'importance). Cela fait, connectez-vous à distance au shell bash et exécutez l'utilitaire. Cela extrait le DDL de tous les schémas dans le cluster dans un fichier nommé "tables.hql". Vous pouvez également passer une liste de schémas à extraire, comme premier paramètre de l'utilitaire.

LIMITATIONS
Consultez les limitations générales connues à l'adresse https://metaintegration.com/Products/MIMB/Help/#!Documents/mimbknownlimitations.html

SUPPORT
Fournissez un package de dépannage avec :
- le log de débogage (configurable dans l'interface ou dans conf/conf.properties avec MIR_LOG_LEVEL=6)
- la sauvegarde des métadonnées si disponible (configurable dans le paramètre Divers avec l'option -backup même si cette option commune n'est pas implémentée pour tous les ponts pour des raisons techniques).


Paramètres du pont

Nom du paramètre Description Type Valeurs Défaut Périmètre
File Le fichier avec un script de base de données DDL SQL à importer. Fichier
*.sql
*.hql
*.ddl
  Éléments obligatoires
Schéma par défaut Le nom du schéma par défaut à utiliser pour les objets dont le qualificateur de schéma n'a pas été défini. Chaîne de caractères      
Schemas Le sous-ensemble de schémas à importer exprimé sous forme de liste de schémas séparés par un point-virgule, par ex.
schema1; schema2

Tous les schémas utilisateurs sont importés si cette liste est vide.

Tous les schémas système (par ex. SysAdmin) et les objets sont ignorés par défaut. Si des schémas système sont nécessaires, utilisez l'option -s du paramètre Miscellaneous (Divers).

Modèles de noms de schémas utilisant les règles de syntaxe utilisées par l'opérateur LIKE en SQL :

- Syntaxe d'inclusion :
utilisant %, par ex.
A%; %B; %C%; D
- commençant par A ou
- finissant par B ou
- contenant C ou
- égal à D

- Syntaxe d'exclusion :
utilisant NOT, par exemple :
A%; %B; NOT %SYS; NOT 'SYS%'
- où (nom comme A% ou %B)
- et (nom différent de %SYS)
- et (nom différent de 'SYS%')

- Caractères spéciaux :
utilisant les guillemets simples, par ex.
OneWord%; 'Two Words%'
Chaîne de caractères      
Tables et vues Le sous-ensemble de tables à importer exprimé sous forme de liste de tables séparées par un point-virgule, par ex.
table1; table2

Toutes les tables utilisateurs sont importées si cette liste est vide.

Toutes les tables système (par ex. SysAdmin) et les objets sont ignorés par défaut. Si des tables système sont nécessaires, utilisez l'option -s du paramètre Miscellaneous (Divers).

Modèles de noms de tables utilisant une syntaxe d'expression SQL LIKE :

- Syntaxe d'inclusion :
utilisant % par exemple :
A%; %B; %C%; D
- commençant par A ou
- finissant par B ou
- contenant C ou
- égal à D

- Syntaxe d'exclusion :
utilisant NOT, par exemple :
A%; %B; NOT %SYS; NOT 'SYS%'
- où (nom comme A% ou %B)
- et (nom différent de %SYS)
- et (nom différent de 'SYS%')

- Caractères spéciaux :
utilisant les guillemets simples, par ex.
OneWord%; 'Two Words%'
Chaîne de caractères      
Miscellaneous INTRODUCTION
Spécifiez les options Divers, commençant par un tiret et suivies éventuellement par des paramètres, par exemple :
-connection.cast MyDatabase1="MICROSOFT SQL SERVER"
Certaines options peuvent être utilisées plusieurs fois, si applicable, par exemple :
-connection.rename NewConnection1=OldConnection1 -connection.rename NewConnection2=OldConnection2;
La liste d'options pouvant être une longue chaîne, il est possible de la charger à partir d'un fichier qui doit être situé dans ${MODEL_BRIDGE_HOME}\data\MIMB\parameters et avoir l'extension .txt. Dans ce cas, toutes les options doivent être définies au sein de ce fichier comme seule valeur de ce paramètre, par exemple
ETL/Miscellaneous.txt

OPTIONS DE L'ENVIRONNEMENT JAVA
-java.memory <taille maximale de la mémoire Java> (anciennement -m)

1 Go par défaut sur un JRE de 64 bits ou tel que défini dans conf/conf.properties, par exemple
-java.memory 8G
-java.memory 8000M

-java.parameters <options de ligne de commande de Java Runtime Environment> (anciennement -j)

Cette option doit être la dernière dans le paramètre Divers car tout le texte après -java.parameters est passé tel quel à la JRE. Par ex.
-java.parameters -Dname=value -Xms1G
L'option suivante doit être définie lorsqu'un proxy est utilisé pour accéder à Internet (cela est essentiel pour accéder à https://repo.maven.apache.org/maven2/ et exceptionnellement à quelques autres sites d'outils) afin de télécharger les bibliothèques logicielles tierces nécessaires.
Note : La majorité des proxys sont relatifs au chiffrement (HTTPS) du trafic extérieur (à l'entreprise) et à la confiance en le trafic intérieur pouvant accéder au proxy via HTTP. Dans ce cas, une requête HTTPS atteint le proxy via HTTP où le proxy la chiffre en HTTPS.
-java.parameters -java.parameters -Dhttp.proxyHost=127.0.0.1 -Dhttp.proxyPort=3128 -Dhttp.proxyUser=user -Dhttp.proxyPassword=pass

OPTIONS D'IMPORT DU MODÈLE
-model.name <nom modèle>

Écrase le nom du modèle, par ex.
-model.name "My Model Name"

-prescript <nom script>

Cette option permet d'exécuter un script avant l'exécution du pont.
Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh.
Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..).
Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec.
Par exemple :
-prescript "script.bat arg1 arg2"

-postscript <nom script>

Cette option permet d'exécuter un script après l'exécution réussie du pont.
Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh.
Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..).
Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec.
Par exemple :
-postscript "script.bat arg1 arg2"

-cache.clear

Vide le cache avant l'import et va exécuter un import complet avec collecte incrémentale.

Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée.
Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée.

-backup <répertoire>

Permet d'enregistrer les métadonnées d'entrée à des fins de débogage. Le <répertoire> fourni doit être vide.

-restore <répertoire>

Spécifiez le <répertoire> de sauvegarde à restaurer.

OPTIONS DES CONNEXIONS DE DONNÉES
Les connexions de données sont produites par les ponts d'import, généralement à partir des outils ETL/DI et BI pour faire référence aux data stores sources et cibles qu'elles utilisent. Ces connexions de données sont ensuite utilisées par les outils de gestion des métadonnées pour connecter ces dernières (connexion des métadonnées) à leurs data stores réels (par exemple, bases de données, système de fichiers, etc.) afin de produire le lignage complet de flux de données et de l'analyse d'impact de bout en bout. Le nom des connexions de données doit être unique dans chaque modèle d'import. Les noms de connexion de données utilisés dans les outils de conception DI/BI sont utilisés quand cela est possible, sinon ils sont générés en étant courts mais significatifs, comme le nom de la base de données/du schéma, le chemin d'accès au système de fichiers ou l'URI (Uniform Resource Identifier). L'option suivante vous permet de manipuler les connexions. Ces options remplacent les options héritées -c, -cd et -cs.

-connection.cast ConnectionName=ConnectionType

Lance une connexion à une base de données générique (par exemple ODBC/JDBC) pour un type de base de données précis (par exemple ORACLE) pour une analyse SQL, par exemple
-connection.cast "My Database"="MICROSOFT SQL SERVER".
La liste des types de connexions aux data stores comprend :
ACCESS
APACHE CASSANDRA
DB2/UDB
DENODO
GOOGLE BIGQUERY
HIVE
MYSQL
NETEZZA
ORACLE
POSTGRESQL
PRESTO
REDSHIFT
SALESFORCE
SAP HANA
SNOWFLAKE
MICROSOFT SQL AZURE
MICROSOFT SQL SERVER
SYBASE SQL SERVER
SYBASE AS ENTERPRISE
TERADATA
VECTORWISE
HP VERTICA

-connection.rename OldConnection=NewConnection

Renomme une connexion existante, par exemple, par ex.
-connection.rename OldConnectionName=NewConnectionName
Plusieurs connexions de bases de données existantes peuvent être renommées et fusionnées en une nouvelle connexion de base de données, par exemple :
-connection.rename MySchema1=MyDatabase -connection.rename MySchema2=MyDatabase

-connection.split oldConnection.Schema1=newConnection

Scinde une connexion de base de données en une ou plusieurs connexions de base de données.
Une connexion de base de données peut être scindée en une connexion par schéma, par exemple :
-connection.split MyDatabase
Toutes les connexions de base de données peuvent être fractionnées en une connexion par schéma, par exemple :
-connection.split *
Une connexion de base de données peut être explicitement fractionnée en une nouvelle connexion de base de données en ajoutant un nom de schéma à une base de données, par exemple :
-connection.split MyDatabase.schema1=MySchema1

-connection.map SourcePath=DestinationPath

Mappe un chemin d'accès source à un chemin d'accès de destination. Cela est utile pour les connexions aux systèmes de fichiers lorsque différents chemins d'accès pointent vers le même objet (répertoire ou fichier).
Sur Hadoop, un processus peut écrire dans un fichier CSV spécifié avec le chemin d'accès complet HDFS, tandis qu'un autre processus lit d'une table Hive implémentée (externe) par le même fichier spécifié à l'aide d'un chemin d'accès relatif avec un nom et une extension de fichier par défaut, par exemple :
-connection.map /user1/folder=hdfs://host:8020/users/user1/folder/file.csv
Sous Linux, il peut être fait référence à un répertoire (ou à un fichier) donné tel que /data par plusieurs liens symboliques tels que /users/john et /users/paul, par exemple :
-connection.map /data=/users/John -connection.map /data=/users/paul
Sous Windows, il peut être fait référence à un répertoire donné tel que C:\data par plusieurs lecteurs réseau tels que M: et N:, par exemple :
-connection.map C:\data=M:\ -connection.map C:\data=N:\

-connection.casesensitive ConnectionName...

Écrase les règles de rapprochement insensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple :
-connection.casesensitive "My Database"

-connection.caseinsensitive ConnectionName...

Écrase les règles de rapprochement sensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple :
-connection.caseinsensitive "My Database"

-connection.level AggregationLevel

Spécifie le niveau d'agrégation pour les connexions externes, par exemple -connection.level catalog
Liste des valeurs supportées :
server (serveur)
catalog (catalogue)
schema (schéma)(par défaut)

OPTIONS SQL DDL
-s <pathname>

Chemin d'accès au fichier de paire de clés/valeurs utilisé pour pré-traiter les fichiers de script et remplacer les paramètres de shell avec les valeurs réelles. Le chemin peut être placé entre guillemets doubles d'échappement s'il contient des espaces ou des caractères spéciaux. Le caractère "deux points" (:) doit être placé entre des antislashs (\) d'échappement, s'il fait partie du nom du paramètre. Le fichier (auquel il est fait référence par le nom de chemin) doit être au format suivant :
key1:value1
"key 2":value2
\:key3withcolon:value3
Par ex.
-s J:\MIMB\map_of_shell_parameters.txt

-default.server < nom du serveur>

Serveur par défaut. Permet de spécifier un nom de serveur de base de données par défaut.

-default.database < nom de la base de données>

Base de données par défaut. Permet de spécifier un nom de base de données.

-default.databasetype <database type>

Type de base de données par défaut. Permet de spécifier un type de base de données par défaut.

-e <encoding>

Cette valeur est utilisée pour charger du texte depuis les fichiers de script spécifiés. Par défaut, UTF-8 est utilisé. Par ex.
-e UTF-16
-e UTF-16BE
-e US-ASCII
-e ISO-8859-1

-p <warehouse path>

Chemin d'accès au warehouse. /user/hive/warehouse par défaut. Par ex.
-p /user/hive/temp

-model.split (précédemment -multiModel)

Scinde un modèle de base de données volumineux en multi-modèles (p. ex. un schéma par modèle).
Chaîne de caractères      

 

Mapping du pont

Les informations de mapping ne sont pas disponibles

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.