Cloudera Navigator - Import
Prérequis du pont
Ce pont :nécessite un accès à Internet vers https://repo.maven.apache.org/maven2/ et/ou d'autres sites d'outils permettant de télécharger des pilotes dans <TDC_HOME>/data/download/MIMB/.
nécessite une installation de l'outil pour accéder à son SDK.
Spécifications du pont
Fournisseur | Cloudera |
Nom de l'outil | Navigateur |
Version de l'outil | 2.x |
Site Web de l'outil | http://www.cloudera.com/products/cloudera-navigator.html |
Méthodologie supportée | [Gestion des métadonnées] Multimodèle, Référentiel des métadonnées, Data Store (Modèle de données physique), ETL (Data Stores sources et cibles, Lignage de transformation, Parsage d'expressions) via une API REST |
Profiling de données | |
Collecte incrémentale | |
Collecte multi-modèle | |
Navigation dans le référentiel distant pour sélectionner un modèle |
SPÉCIFICATIONS
Outil : Cloudera/Navigator version 2.x via une API REST
Consultez http://www.cloudera.com/products/cloudera-navigator.html
Métadonnées : [Gestion des métadonnées] Multimodèle, Référentiel des métadonnées, Data Store (Modèle de données physique), ETL (Data Stores sources et cibles, Lignage de transformation, Parsage d'expressions)
Composant : ClouderaNavigator version 11.2.0
AVERTISSEMENT
Ce pont requiert un accès à Internet pour télécharger les bibliothèques tierces :
- par exemple https://repo.maven.apache.org/maven2/ pour télécharger les bibliothèques tierces open source,
- et plus de sites pour d'autres logiciels tiers, comme les pilotes JDBC spécifiques pour les bases de données.
Les bibliothèques tierces téléchargées sont stockées dans $HOME/data/download/MIMB/
- Si le protocole HTTPS échoue, le pont d'import essaye ensuite avec HTTP.
- Si un proxy est utilisé pour accéder à Internet, vous devez configurer ce proxy dans l'environnement JRE (voir l'option -j dans le paramètre Divers).
- Si le pont d'import n'a pas d'accès à Internet, le répertoire $HOME/data/download/MIMB/ peut être copié depuis un autre serveur qui a accès à Internet, où la commande $HOME/bin/MIMB.sh (ou .bat) -d peut être utilisée pour télécharger en une fois toutes les bibliothèques tierces utilisées par tous les ponts.
En exécutant ce pont d'import, vous reconnaissez être responsable des conditions d'utilisation et de toute autre faille de sécurité potentielle liées au téléchargement de ces bibliothèques logicielles tierces.
VUE D'ENSEMBLE
Les référentiels de Navigator contiennent les définitions des data stores Hadoop des fichiers HDFS et des tables HIVE, ainsi que le lignage de flux de données entre eux.
Les référentiels de Navigator déterminent ce lignage de flux de données à partir du log d'exécution des diverses technologies (HiveQL, Spark, etc) produit par diverses applications, framework d'ingestion/ETL/Jobs d'intégration de données.
Le but de ce pont d'import de Navigator n'est PAS d'extraire les définitions de data stores, mais d'utiliser les ponts d'import Hive et HDFS.
Cependant, le but de ce pont d'import de Navigator est d'extraire le lignage du flux de données (processus d'intégration de données) entre les data stores HDFS et Hive précédemment collectés.
Préférez cependant les ponts d'import HiveQL ou Spark dédiés afin d'obtenir un lignage plus détaillé au niveau des fonctionnalités/colonnes avec une corrélation entre les scripts originaux.
PRÉREQUIS
Les référentiels de Navigator peuvent être extrêmement volumineux, car ils contiennent les transactions HDFS/Hive de plusieurs années d'activité.
C'est pour cela qu'il est important de filtrer l'étendue d'un import de Navigator donné pour une meilleure précision de l'activité de flux de données.
FOIRE AUX QUESTIONS
Q : Pourquoi le nombre de processeurs n'est-il pas le même que dans Cloudera Navigator ?
R : Le nombre de modèles d'intégration de données est relatif au nombre de processus d'intégration de données requis, basé sur le nombre de "pipelines" représentés dans Cloudera Navigator.
LIMITATIONS
Consultez les limitations générales connues actuellement sur https://metaintegration.com/Products/MIMB/Help/#!Documents/mimbknownlimitations.html
L'objectif de ce pont d'import Navigator n'est PAS d'extraire les définitions des data stores. Utilisez à la place les ponts d'import Hive et HDFS.
Cependant, le but de ce pont d'import de Navigator est d'extraire le lignage du flux de données (processus d'intégration de données) entre les data stores HDFS et Hive précédemment collectés.
SUPPORT
Fournissez un package de dépannage avec :
- le log de débogage (peut être défini dans l'UI ou dans conf/conf.properties avec MIR_LOG_LEVEL=6)
- la sauvegarde des métadonnées si disponible (peut être configurée dans le paramètre Divers avec l'option -backup, même si cette option commune n'est pas implémentée pour tous les ponts pour des raisons techniques).
Paramètres du pont
Nom du paramètre | Description | Type | Valeurs | Défaut | Périmètre | |||
URL | URL du serveur de métadonnées. par ex. http://localhost:21000/ |
Chaîne de caractères | Éléments obligatoires | |||||
Login | Nom du compte utilisateur utilisé pour se connecter au serveur de métadonnées. | Chaîne de caractères | holger_gov | |||||
Password | Mot de passe du compte utilisateur utilisé pour se connecteur au serveur de métadonnées. | MOT DE PASSE | holger_gov | |||||
Filtre des entités | Le pont importe et construit le lignage en utilisant des entités de départ définies (tables, fichiers et répertoires), filtrées par ce paramètre. La syntaxe de la requête est la même que celle de l'interface de recherche Cloudera Navigator. Exemples de requêtes : path like data.csv owner:impala path like *hdfs://quickstart.cloudera:8020/user/hive/warehouse/customers path like *dirname* and type:directory Pour accélérer l'import, veuillez fournir une requête aussi précise que possible et vérifier le nombre d'entités filtrées dans l'interface du Navigator avant l'import. |
Chaîne de caractères | Éléments obligatoires | |||||
Filtre des opérations | Limitez le nombre d'opérations importées par date ou souceType, par exemple : started:[2019-02-25T00:00:000Z TO 2019-02-27T00:00:000Z] et sourceType:impala Cette option pourrait ajouter des requêtes au serveur d'API et ralentir le processus d'import. |
Chaîne de caractères | ||||||
Sens du lignage | Utilisez ce paramètre pour définir le sens d'extraction du lignage. | ÉNUMÉRATION |
|
BP_LINEAGE_DIRECTION_BOTH | ||||
Fichier de configuration Kerberos | Chemin vers le fichier de configuration de Kerberos krb5 (généralement krb5.ini ou krb5.conf avec la bonne configuration) par ex. /etc/krb5/krb5.conf |
Chaîne de caractères | ||||||
Fichier Kerberos login.conf | Chemin vers login.conf avec chemin d'accès au fichier Keytab et nom du Principal corrects. Par ex. : client { com.sun.security.auth.module.Krb5LoginModule required useKeyTab=true storeKey=true keyTab=/path/to/userKeytab principal='userName'; }; |
Chaîne de caractères | ||||||
Miscellaneous | INTRODUCTION Spécifiez les options Divers, commençant par un tiret et suivies éventuellement par des paramètres, par exemple : -connection.cast MyDatabase1="MICROSOFT SQL SERVER" Certaines options peuvent être utilisées plusieurs fois, si applicable, par exemple : -connection.rename NewConnection1=OldConnection1 -connection.rename NewConnection2=OldConnection2; La liste d'options pouvant être une longue chaîne, il est possible de la charger à partir d'un fichier qui doit être situé dans ${MODEL_BRIDGE_HOME}\data\MIMB\parameters et avoir l'extension .txt. Dans ce cas, toutes les options doivent être définies au sein de ce fichier comme seule valeur de ce paramètre, par exemple ETL/Miscellaneous.txt OPTIONS DE L'ENVIRONNEMENT JAVA -java.memory <taille maximale de la mémoire Java> (anciennement -m) 1 Go par défaut sur un JRE de 64 bits ou tel que défini dans conf/conf.properties, par exemple -java.memory 8G -java.memory 8000M -java.parameters <options de ligne de commande de Java Runtime Environment> (anciennement -j) Cette option doit être la dernière dans le paramètre Divers car tout le texte après -java.parameters est passé tel quel à la JRE. Par ex. -java.parameters -Dname=value -Xms1G L'option suivante doit être définie lorsqu'un proxy est utilisé pour accéder à Internet (cela est essentiel pour accéder à https://repo.maven.apache.org/maven2/ et exceptionnellement à quelques autres sites d'outils) afin de télécharger les bibliothèques logicielles tierces nécessaires. Note : La majorité des proxys sont relatifs au chiffrement (HTTPS) du trafic extérieur (à l'entreprise) et à la confiance en le trafic intérieur pouvant accéder au proxy via HTTP. Dans ce cas, une requête HTTPS atteint le proxy via HTTP où le proxy la chiffre en HTTPS. -java.parameters -java.parameters -Dhttp.proxyHost=127.0.0.1 -Dhttp.proxyPort=3128 -Dhttp.proxyUser=user -Dhttp.proxyPassword=pass OPTIONS D'IMPORT DU MODÈLE -model.name <nom modèle> Écrase le nom du modèle, par ex. -model.name "My Model Name" -prescript <nom script> Cette option permet d'exécuter un script avant l'exécution du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -prescript "script.bat arg1 arg2" -postscript <nom script> Cette option permet d'exécuter un script après l'exécution réussie du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -postscript "script.bat arg1 arg2" -cache.clear Vide le cache avant l'import et va exécuter un import complet avec collecte incrémentale. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. -backup <répertoire> Permet d'enregistrer les métadonnées d'entrée à des fins de débogage. Le <répertoire> fourni doit être vide. -restore <répertoire> Spécifiez le <répertoire> de sauvegarde à restaurer. OPTIONS DES CONNEXIONS DE DONNÉES Les connexions de données sont produites par les ponts d'import, généralement à partir des outils ETL/DI et BI pour faire référence aux data stores sources et cibles qu'elles utilisent. Ces connexions de données sont ensuite utilisées par les outils de gestion des métadonnées pour connecter ces dernières (connexion des métadonnées) à leurs data stores réels (par exemple, bases de données, système de fichiers, etc.) afin de produire le lignage complet de flux de données et de l'analyse d'impact de bout en bout. Le nom des connexions de données doit être unique dans chaque modèle d'import. Les noms de connexion de données utilisés dans les outils de conception DI/BI sont utilisés quand cela est possible, sinon ils sont générés en étant courts mais significatifs, comme le nom de la base de données/du schéma, le chemin d'accès au système de fichiers ou l'URI (Uniform Resource Identifier). L'option suivante vous permet de manipuler les connexions. Ces options remplacent les options héritées -c, -cd et -cs. -connection.cast ConnectionName=ConnectionType Lance une connexion à une base de données générique (par exemple ODBC/JDBC) pour un type de base de données précis (par exemple ORACLE) pour une analyse SQL, par exemple -connection.cast "My Database"="MICROSOFT SQL SERVER". La liste des types de connexions aux data stores comprend : ACCESS APACHE CASSANDRA DB2/UDB DENODO GOOGLE BIGQUERY HIVE MYSQL NETEZZA ORACLE POSTGRESQL PRESTO REDSHIFT SALESFORCE SAP HANA SNOWFLAKE MICROSOFT SQL AZURE MICROSOFT SQL SERVER SYBASE SQL SERVER SYBASE AS ENTERPRISE TERADATA VECTORWISE HP VERTICA -connection.rename OldConnection=NewConnection Renomme une connexion existante, par exemple, par ex. -connection.rename OldConnectionName=NewConnectionName Plusieurs connexions de bases de données existantes peuvent être renommées et fusionnées en une nouvelle connexion de base de données, par exemple : -connection.rename MySchema1=MyDatabase -connection.rename MySchema2=MyDatabase -connection.split oldConnection.Schema1=newConnection Scinde une connexion de base de données en une ou plusieurs connexions de base de données. Une connexion de base de données peut être scindée en une connexion par schéma, par exemple : -connection.split MyDatabase Toutes les connexions de base de données peuvent être fractionnées en une connexion par schéma, par exemple : -connection.split * Une connexion de base de données peut être explicitement fractionnée en une nouvelle connexion de base de données en ajoutant un nom de schéma à une base de données, par exemple : -connection.split MyDatabase.schema1=MySchema1 -connection.map SourcePath=DestinationPath Mappe un chemin d'accès source à un chemin d'accès de destination. Cela est utile pour les connexions aux systèmes de fichiers lorsque différents chemins d'accès pointent vers le même objet (répertoire ou fichier). Sur Hadoop, un processus peut écrire dans un fichier CSV spécifié avec le chemin d'accès complet HDFS, tandis qu'un autre processus lit d'une table Hive implémentée (externe) par le même fichier spécifié à l'aide d'un chemin d'accès relatif avec un nom et une extension de fichier par défaut, par exemple : -connection.map /user1/folder=hdfs://host:8020/users/user1/folder/file.csv Sous Linux, il peut être fait référence à un répertoire (ou à un fichier) donné tel que /data par plusieurs liens symboliques tels que /users/john et /users/paul, par exemple : -connection.map /data=/users/John -connection.map /data=/users/paul Sous Windows, il peut être fait référence à un répertoire donné tel que C:\data par plusieurs lecteurs réseau tels que M: et N:, par exemple : -connection.map C:\data=M:\ -connection.map C:\data=N:\ -connection.casesensitive ConnectionName... Écrase les règles de rapprochement insensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple : -connection.casesensitive "My Database" -connection.caseinsensitive ConnectionName... Écrase les règles de rapprochement sensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple : -connection.caseinsensitive "My Database" -connection.level AggregationLevel Spécifie le niveau d'agrégation pour les connexions externes, par exemple -connection.level catalog Liste des valeurs supportées : server (serveur) catalog (catalogue) schema (schéma) (par défaut) OPTIONS ETL Ces options sont disponibles dans tous les ponts d'import de scrit et d'outils d'intégration de données/d'ETL afin de : - traiter tous les parsages SQL - construire des modèles au moment de l'exécution à partir de modèles de conception et de variables d'exécution, - calculer un lignage de synthèse au moment de l'exécution. -etl.summary.add.ultimate (anciennement -ppus) Ajoute la dernière synthèse de lignage d'exécution (peut générer un modèle très volumineux). -etl.summary.only.ultimate (précédemment -ppsp) Produit uniquement la dernière synthèse de lignage d'exécution (peut générer un modèle très volumineux). -etl.connections.add.internal.design (précédemment -pppd) Ajoute les connecteurs internes de données de conception ETL (requis pour la conversion ETL). -etl.connections.remove.input (anciennement -ri) Supprime toutes les connexions de données d'entrée (source), afin de réduire la taille du modèle généré. -etl.transformations.enable.xml Cette option permet le parsage et le support des transformations XML dans des ponts d'import d'intégration de données/ETL comme Informatica PowerCenter, Informatica Developer, Microsoft SSIS, IBM DataStage et Talend Data Integration. Dans le cas d'Informatica, de telles transformations XML correspondent aux fonctionnalités suivantes de PowerCenter https://docs.informatica.com/data-integration/powercenter/10-5/xml-guide/midstream-xml-transformations.html https://docs.informatica.com/data-integration/powercenter/10-5/xml-guide/xml-source-qualifier-transformation.html Notez que cette option peut ralentir l'import de manière considérable. OPTIONS DU RÉFÉRENTIEL -restore.dir <chemin d'accès au répertoire de sauvegarde> Spécifiez le répertoire de sauvegarde à restaurer, par ex. -restore.dir C:\test\restoreDir -connection.timeout <nombre de secondes> Spécifiez un délai avant expiration de la connexion (par défaut 20), par ex. : -connection.timeout 20 -threads.count <nombre> Définit le nombre de threads à utiliser pendant l'exécution de requêtes vers l'API, par exemple : -threads.count 5 -cs <liste de connexions séparées par des virgules> Crée des schémas par connexion, par exemple : -cs * (créez une connexion distincte pour chaque schéma dans chaque connexion) -cs c1, c2 (créez des connexions distinctes pour chaque schéma dans les connexions c1 et c2) -cs app1=c.s1 (créez une connexion nommée app1 pour le schéma s1 dans la connexion c) OPTIONS NAVIGATOR -request.limit <nombre max. d'entités> Spécifiez le nombre maximal d'entités à récupérer pour une requête, par exemple : -request.limit 1000 -s Importez les objets système ignorés par défaut. -cd <liste de connexions séparées par des virgules> Crée des répertoires par connexion, par exemple : -cd a_con=orig_con:/root/a (créez une connexion distincte a_con pour une branche de dossiers root/a dans la connexion origin_con) -cd hdfs://nameservice2/podium=hdfs://nameservice1/podium (créez une connexion distincte hdfs://nameservice2/podium pour la connexion hdfs://nameservice1/podium) -load.physicals Importe des relations logiques-physiques |
Chaîne de caractères |
Mapping du pont
Les informations de mapping ne sont pas disponibles