Base de données Google Cloud BigQuery (via JDBC) - Import
Prérequis du pont
Ce pont :nécessite un accès à Internet vers https://repo.maven.apache.org/maven2/ et/ou d'autres sites d'outils permettant de télécharger des pilotes dans <TDC_HOME>/data/download/MIMB/.
Spécifications du pont
Fournisseur | |
Nom de l'outil | Base de données Cloud BigQuery |
Version de l'outil | 2.0.0 |
Site Web de l'outil | http://developers.google.com/bigquery/ |
Méthodologie supportée | [Base de données relationnelle] Multimodèle, Data Store (Modèle de données physique) via une API Java |
Profiling de données | |
Collecte incrémentale | |
Collecte multi-modèle | |
Navigation dans le référentiel distant pour sélectionner un modèle |
SPÉCIFICATIONS
Outil : Google/Base de données Cloud BigQuery version 2.0.0 via l'API JDBC
Consultez http://developers.google.com/bigquery/
Métadonnées : [Base de données relationnelle] Multimodèle, Data Store (Modèle de données physique)
Composant : GoogleBigQuery version 11.2.0
AVERTISSEMENT
Ce pont d'import requiert un accès à Internet pour télécharger les bibliothèques tierces :
- par exemple https://repo.maven.apache.org/maven2/ pour télécharger les bibliothèques tierces open source,
- et plus de sites pour d'autres logiciels tiers, comme les pilotes JDBC spécifiques pour les bases de données.
Les bibliothèques tierces téléchargées sont stockées dans $HOME/data/download/MIMB/
- Si le protocole HTTPS échoue, le pont d'import essaye ensuite avec HTTP.
- Si un proxy est utilisé pour accéder à Internet, vous devez configurer ce proxy dans l'environnement JRE (voir l'option -j dans le paramètre Divers).
- Si le pont d'import n'a pas d'accès à Internet, le répertoire $HOME/data/download/MIMB/ peut être copié depuis un autre serveur qui a accès à Internet, où la commande $HOME/bin/MIMB.sh (ou .bat) -d peut être utilisée pour télécharger en une fois toutes les bibliothèques tierces utilisées par tous les ponts.
En exécutant ce pont d'import, vous reconnaissez être responsable des conditions d'utilisation et de toute autre faille de sécurité potentielle liées au téléchargement de ces bibliothèques logicielles tierces.
VUE D'ENSEMBLE
Ce pont d'import établit une connexion aux serveurs Google BigQuery afin d'extraire les métadonnées physiques.
PRÉREQUIS
Ce pont d'import utilise des fichiers JAR pour se connecter aux serveurs Google. Ces fichiers JAR sont généralement disponibles sur : https://cloud.google.com/bigquery/providers/simba-drivers.
Le pont d'import télécharge automatiquement le(s) pilote(s) requis dans le dossier _Install/data/download/MIMB.
Ce pont d'import utilise l'API Java native pour parser les métadonnées, en chargeant le pilote JDBC Simba.
Ce pont d'import supporte de manière facultative la découverte de métadonnées orientées données/le profiling de données et utilise le pilote JDBC BigQuery téléchargé depuis Google, par exemple :
data/download/MIMB/com.simba.googlebigquery/jdbc42/SimbaJDBCDriverforGoogleBigQuery42_1.3.0.1001
Consultez la section AUTORISATIONS ci-dessous.
AUTHENTIFICATION
n/a
AUTORISATIONS
Les ponts d'import sont garantis pour être en lecture seule uniquement et n'extraire que des métadonnées. C'est pour cette raison que l'utilisateur de ce pont d'import a besoin de beaucoup moins d'autorisations que les utilisateurs traditionnels devant lire/écrire des données.
Dans le cas d'une base de données Google BigQuery :
Ce pont d'import extrait les métadonnées en lisant les tables système de la base de données Google BigQuery (par ex. INFORMATION_SCHEMA). Notez que le pilote JDBC (et non le pont d'import) crée un Job BigQuery lorsqu'il doit lire ces tables système ou toute autre table. Ainsi, ce pont d'import requiert les rôles BigQuery Metadata Viewer et BigQuery Job User sur les projets. Consultez la documentation fournie à l'adresse suivante pour plus d'informations :
https://cloud.google.com/bigquery/docs/jobs-overview
Ce pont d'import utilise le protocole OAuth 2.0 pour accéder au service de BigQuery de Google. Il supporte actuellement l'authentification utilisant la "clé du compte de service".
La méthode d'authentification supporte un fichier de clé JSON ou P12. Vous pouvez spécifier le fichier au pont d'import à l'aide du paramètre Fichier de clé privée. Le fichier P12 est un ancien format qui nécessite que vous spécifiiez l'identifiant de votre compte de service dans le paramètre facultatif Identifiant du client du service.
Veuillez vous référer à la documentation fournie en suivant le lien ci-dessous pour créer un compte de service. Vous obtiendrez l'identifiant du client et le fichier de clé requis pour exécuter le pont d'import.
https://developers.google.com/bigquery/docs/authorization#service-accounts-server
FOIRE AUX QUESTIONS
n/a
LIMITATIONS
Consultez les limitations générales connues actuellement sur https://metaintegration.com/Products/MIMB/Help/#!Documents/mimbknownlimitations.html
SUPPORT
Fournissez un package de dépannage avec :
- le log de débogage (peut être défini dans l'UI ou dans conf/conf.properties avec MIR_LOG_LEVEL=6)
- la sauvegarde des métadonnées si disponible (peut être configurée dans le paramètre Divers avec l'option -backup, même si cette option commune n'est pas implémentée pour tous les ponts pour des raisons techniques).
Paramètres du pont
Nom du paramètre | Description | Type | Valeurs | Défaut | Périmètre | ||||
Emplacement du pilote | Répertoire où se situent les fichiers des pilotes JDBC. Lorsque la valeur est vide (par défaut), le pont tente de télécharger les fichiers du pilote depuis Google. Le nom de la classe du pilote par défaut est "com.simba.googlebigquery.jdbc42.DataSource". Si le pilote spécifié a un nom de classe différent, spécifiez-le à l'aide de l'option -driver.className dans le paramètre Divers du pont. |
RÉPERTOIRE | |||||||
Identifiant du client du service | ID client pour le compte de service créé pour le pont d'import, par ex. xyz@developer.gserviceaccount.com. Cet identifiant de compte est requis en cas d'utilisation d'un fichier de clé P12. |
Chaîne de caractères | |||||||
Fichier de clé privée | Fichier de clé privée pour le compte de service créé pour le pont d'import. Ce fichier doit être au format JSON ou P12 (avec une extension de fichier JSON ou P12). P12 est un ancien format PKCS #12 (Public Key Cryptography Standard #12) qui nécessite que vous spécifiiez l'identifiant du compte de service dans le paramètre facultatif Identifiant du client du service. Si vous utilisez la stratégie d'authentification Application Default Credentials (ADC), laissez la valeur de ce paramètre vide. |
Fichier | *.* | ||||||
Projets | Les ID de projets entièrement qualifiés à importer se présentent sous forme de liste de valeurs séparées par une virgule/un point-virgule, par ex. mydomain.com:myProject1, mydomain.com:myProject2 Notez que seul le premier projet de cette liste sera utilisé pour l'authentification de tous les autres projets de la liste. Ainsi, certains projets de la liste peuvent ne pas être importés si l'identifiant fourni par le premier projet n'a pas accès aux autres projets listés. |
Chaîne de caractères | Éléments obligatoires | ||||||
Emplacements | Liste des noms de régions (consultez https://cloud.google.com/bigquery/docs/locations) où sont situés les jeux de données. Par exemple, asia-northeast1,US,EU. Un jeu de données se situe dans une région spécifique. Lorsque vous créez un jeu de données, vous pouvez spécifier son emplacement régional ou utiliser celui par défaut. Ce paramètre vous permet de filtrer les jeux de données en vous basant sur leur emplacement. Par défaut, la valeur du paramètre est vide, ce qui indique au pont d'importer des jeux de données situés dans l'emplacement US multirégional. Cette option fonctionne uniquement avec le mode Multimodèle. |
Chaîne de caractères | |||||||
Jeux de données | Le sous-ensemble de jeux de données à importer exprimé sous forme de liste de jeux de données séparés par un point-virgule, par ex. dataset1; dataset2 Tous les jeux de données sont importés si cette liste est vide. Modèles de noms de jeux de données utilisant une syntaxe d'expression SQL LIKE : - Syntaxe d'inclusion : utilisant % ou *, par exemple : A%; %B; %C%; D - commençant par A ou - finissant par B ou - contenant C ou - égal à D - Syntaxe d'exclusion : utilisant NOT, par exemple : A%; %B; NOT %SYS; NOT 'SYS%' - WHERE (name like A% or name like %B) - et (name NOT like %SYS) - et (name NOT like 'SYS%') - Caractères spéciaux : ^ $ * + ? | \ ( ) [ ] { } espace blanc entourez ce nom de crochets et échappez des caractères spéciaux, par ex. OneWord%; [Two\sWords.*]; [Dollar\$] |
REPOSITORY_SUBSET | |||||||
Informations concernant les procédures stockées | Contrôle la quantité de détails importés depuis les procédures stockées : "Signature" Le nom et les paramètres des procédures stockées "Code, signature" Les éléments susmentionnés plus le code "Lineage, code, signature (Lignage, code, signature)" Les éléments susmentionnés plus le lignage de données dérivé du code "None (Aucun)" Les détails des procédures stockées ne sont pas inclus. |
ÉNUMÉRATION |
|
Signature | |||||
Miscellaneous | INTRODUCTION Spécifiez les options Divers, commençant par un tiret et suivies éventuellement par des paramètres, par exemple : -connection.cast MyDatabase1="MICROSOFT SQL SERVER" Certaines options peuvent être utilisées plusieurs fois, si applicable, par exemple : -connection.rename NewConnection1=OldConnection1 -connection.rename NewConnection2=OldConnection2; La liste d'options pouvant être une longue chaîne, il est possible de la charger à partir d'un fichier qui doit être situé dans ${MODEL_BRIDGE_HOME}\data\MIMB\parameters et avoir l'extension .txt. Dans ce cas, toutes les options doivent être définies au sein de ce fichier comme seule valeur de ce paramètre, par exemple ETL/Miscellaneous.txt OPTIONS DE L'ENVIRONNEMENT JAVA -java.memory <taille maximale de la mémoire Java> (anciennement -m) 1 Go par défaut sur un JRE de 64 bits ou tel que défini dans conf/conf.properties, par exemple -java.memory 8G -java.memory 8000M -java.parameters <options de ligne de commande de Java Runtime Environment> (anciennement -j) Cette option doit être la dernière dans le paramètre Divers car tout le texte après -java.parameters est passé tel quel à la JRE. Par ex. -java.parameters -Dname=value -Xms1G L'option suivante doit être définie lorsqu'un proxy est utilisé pour accéder à Internet (cela est essentiel pour accéder à https://repo.maven.apache.org/maven2/ et exceptionnellement à quelques autres sites d'outils) afin de télécharger les bibliothèques logicielles tierces nécessaires. Note : La majorité des proxys sont relatifs au chiffrement (HTTPS) du trafic extérieur (à l'entreprise) et à la confiance en le trafic intérieur pouvant accéder au proxy via HTTP. Dans ce cas, une requête HTTPS atteint le proxy via HTTP où le proxy la chiffre en HTTPS. -java.parameters -java.parameters -Dhttp.proxyHost=127.0.0.1 -Dhttp.proxyPort=3128 -Dhttp.proxyUser=user -Dhttp.proxyPassword=pass OPTIONS D'IMPORT DU MODÈLE -model.name <nom modèle> Écrase le nom du modèle, par ex. -model.name "My Model Name" -prescript <nom script> Cette option permet d'exécuter un script avant l'exécution du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -prescript "script.bat arg1 arg2" -postscript <nom script> Cette option permet d'exécuter un script après l'exécution réussie du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -postscript "script.bat arg1 arg2" -cache.clear Vide le cache avant l'import et va exécuter un import complet avec collecte incrémentale. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. -backup <répertoire> Permet d'enregistrer les métadonnées d'entrée à des fins de débogage. Le <répertoire> fourni doit être vide. -restore <répertoire> Spécifiez le <répertoire> de sauvegarde à restaurer. OPTIONS DES CONNEXIONS DE DONNÉES Les connexions de données sont produites par les ponts d'import, généralement à partir des outils ETL/DI et BI pour faire référence aux data stores sources et cibles qu'elles utilisent. Ces connexions de données sont ensuite utilisées par les outils de gestion des métadonnées pour connecter ces dernières (connexion des métadonnées) à leurs data stores réels (par exemple, bases de données, système de fichiers, etc.) afin de produire le lignage complet de flux de données et de l'analyse d'impact de bout en bout. Le nom des connexions de données doit être unique dans chaque modèle d'import. Les noms de connexion de données utilisés dans les outils de conception DI/BI sont utilisés quand cela est possible, sinon ils sont générés en étant courts mais significatifs, comme le nom de la base de données/du schéma, le chemin d'accès au système de fichiers ou l'URI (Uniform Resource Identifier). L'option suivante vous permet de manipuler les connexions. Ces options remplacent les options héritées -c, -cd et -cs. -connection.cast ConnectionName=ConnectionType Lance une connexion à une base de données générique (par exemple ODBC/JDBC) pour un type de base de données précis (par exemple ORACLE) pour une analyse SQL, par exemple -connection.cast "My Database"="MICROSOFT SQL SERVER". La liste des types de connexions aux data stores comprend : ACCESS APACHE CASSANDRA DB2/UDB DENODO GOOGLE BIGQUERY HIVE MYSQL NETEZZA ORACLE POSTGRESQL PRESTO REDSHIFT SALESFORCE SAP HANA SNOWFLAKE MICROSOFT SQL AZURE MICROSOFT SQL SERVER SYBASE SQL SERVER SYBASE AS ENTERPRISE TERADATA VECTORWISE HP VERTICA -connection.rename OldConnection=NewConnection Renomme une connexion existante, par exemple, par ex. -connection.rename OldConnectionName=NewConnectionName Plusieurs connexions de bases de données existantes peuvent être renommées et fusionnées en une nouvelle connexion de base de données, par exemple : -connection.rename MySchema1=MyDatabase -connection.rename MySchema2=MyDatabase -connection.split oldConnection.Schema1=newConnection Scinde une connexion de base de données en une ou plusieurs connexions de base de données. Une connexion de base de données peut être scindée en une connexion par schéma, par exemple : -connection.split MyDatabase Toutes les connexions de base de données peuvent être fractionnées en une connexion par schéma, par exemple : -connection.split * Une connexion de base de données peut être explicitement fractionnée en une nouvelle connexion de base de données en ajoutant un nom de schéma à une base de données, par exemple : -connection.split MyDatabase.schema1=MySchema1 -connection.map SourcePath=DestinationPath Mappe un chemin d'accès source à un chemin d'accès de destination. Cela est utile pour les connexions aux systèmes de fichiers lorsque différents chemins d'accès pointent vers le même objet (répertoire ou fichier). Sur Hadoop, un processus peut écrire dans un fichier CSV spécifié avec le chemin d'accès complet HDFS, tandis qu'un autre processus lit d'une table Hive implémentée (externe) par le même fichier spécifié à l'aide d'un chemin d'accès relatif avec un nom et une extension de fichier par défaut, par exemple : -connection.map /user1/folder=hdfs://host:8020/users/user1/folder/file.csv Sous Linux, il peut être fait référence à un répertoire (ou à un fichier) donné tel que /data par plusieurs liens symboliques tels que /users/john et /users/paul, par exemple : -connection.map /data=/users/John -connection.map /data=/users/paul Sous Windows, il peut être fait référence à un répertoire donné tel que C:\data par plusieurs lecteurs réseau tels que M: et N:, par exemple : -connection.map C:\data=M:\ -connection.map C:\data=N:\ -connection.casesensitive ConnectionName... Écrase les règles de rapprochement insensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple : -connection.casesensitive "My Database" -connection.caseinsensitive ConnectionName... Écrase les règles de rapprochement sensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple : -connection.caseinsensitive "My Database" -connection.level AggregationLevel Spécifie le niveau d'agrégation pour les connexions externes, par exemple -connection.level catalog Liste des valeurs supportées : server (serveur) catalog (catalogue) schema (schéma)(par défaut) OPTIONS GOOGLE BIGQUERY -s Importez les objets système ignorés par défaut. -model.split (précédemment -multiModel) Scinde un modèle de serveur volumineux en multi-modèles (p. ex. une base de données par modèle). Avertissement : Ceci est une option du système gérée par l'application qui appelle ce pont d'import et qui ne doit pas être configurée par les utilisateurs. -driver.className Le nom complet (y compris le nom de package) de la classe Java qui implémente l'interface du pilote JDBC. -driver.options "<option declaration>" Options de connexion du pilote JDBC. Toutes les options fournies seront ajoutées à la chaîne de caractères de connexion au pilote JDBC. exemples : -driver.options "Timeout=100" -driver.options "AllowLargeResults=1;Timeout=300;LogLevel=1" -driver.url La chaîne de connexion JDBC entièrement qualifiée. Elle écrase toutes les autres options de connexion du pont. |
Chaîne de caractères |
Mapping du pont
Meta Integration Repository (MIR) Métamodèle (se base sur le standard OMG CWM) |
"Base de données Google Cloud BigQuery (via JDBC)" Métamodèle Google BigQuery (Projet) |
Mapping des commentaires |
Attribut | Colonne | |
Description | Description | |
ExtraConstraint | Contrainte | |
InitialValue | Valeur initiale | |
Name (Nom) | Name (Nom) | |
NativeId | Identifiant natif | |
Facultatif | Nullable | |
PhysicalName | Nom physique | |
Position | Position | |
Classe | Table, ENREGISTREMENT | |
Description | Description | |
Name (Nom) | Name (Nom) | |
NativeId | Identifiant natif | |
PhysicalName | Nom physique | |
ClassDiagram | Diagramme | |
Description | Description | |
Name (Nom) | Name (Nom) | |
DatabaseSchema | Dataset | |
Description | Description | |
Name (Nom) | Name (Nom) | |
NativeId | Identifiant natif | |
PhysicalName | Nom physique | |
DesignPackage | Zone de sujet | |
Description | Description | |
Name (Nom) | Name (Nom) | |
Jointure | Relation logique | |
Description | Description | |
Name (Nom) | Name (Nom) | |
SQLViewAttribute | ViewColumn | |
Description | Description | |
InitialValue | Valeur initiale | |
Name (Nom) | Name (Nom) | |
NativeId | Identifiant natif | |
Facultatif | Nullable | |
PhysicalName | Nom physique | |
Position | Position | |
SQLViewEntity | Visualiser | |
Description | Description | |
Name (Nom) | Name (Nom) | |
NativeId | Identifiant natif | |
PhysicalName | Nom physique | |
ViewStatement | Afficher l'instruction | |
StoreModel | Project (Projet) | |
Author | Auteur | |
CreationTime | Heure de création | |
Description | Description | |
ModificationTime | Heure de modification | |
Modificateur | Modificateur | |
Name (Nom) | Name (Nom) | |
NativeId | Identifiant natif | |
PhysicalName | Nom physique | |
StoreType | Type de magasin | |
SystemMajorVersion | Version majeure du système | |
SystemMinorVersion | Version mineure du système | |
SystemReleaseVersion | Version du système | |
SystemType | Type du système | |
SystemTypeOld | Ancien type du système |