Informatica PowerCenter (Référentiel) - Import
Prérequis du pont
Ce pont :nécessite un accès à Internet vers https://repo.maven.apache.org/maven2/ et/ou d'autres sites d'outils permettant de télécharger des pilotes dans <TDC_HOME>/data/download/MIMB/.
nécessite une installation de l'outil pour accéder à son SDK.
Spécifications du pont
Fournisseur | Informatica |
Nom de l'outil | PowerCenter |
Version de l'outil | 8.x à 10.x |
Site Web de l'outil | https://docs.informatica.com/data-integration/powercenter/ |
Méthodologie supportée | [Intégration de données] Multimodèle, Référentiel de métadonnées, ETL (Data Stores sources et cibles, Lignage de transformation, Parsage d'expressions) via l'API Command Line sur un fichier XML basé sur le référentiel |
Profiling de données | |
Collecte incrémentale | |
Collecte multi-modèle | |
Navigation dans le référentiel distant pour sélectionner un modèle |
SPÉCIFICATIONS
Outil : Informatica/PowerCenter version 8.x à 10.x via une API en ligne de commande sur un fichier XML basé référentiel
Consultez https://docs.informatica.com/data-integration/powercenter/
Métadonnées : [Intégration de données] Multimodèle, Référentiel des métadonnées, ETL (Data Stores sources et cibles, Lignage de transformation, Parsage d'expressions)
Composant : InformaticaPowerCenterRepository version 11.2.0
AVERTISSEMENT
Ce pont d'import nécessite un accès à Internet pour télécharger les bibliothèques tierces :
- comme https://repo.maven.apache.org/maven2/ pour télécharger les bibliothèques open source tierces,
- et d'autres sites pour plus de logiciels tiers, comme des pilotes de bases de données spécifiques à JDBC.
Les bibliothèques tierces téléchargées sont stockées dans $HOME/data/download/MIMB/
- Si le protocole HTTPS échoue, le pont d'import essaye ensuite avec HTTP.
- Si un proxy est utilisé pour accéder à Internet, vous devez configurer ce proxy dans l'environnement JRE (voir l'option -j dans le paramètre Divers).
- Si le pont d'import n'a pas d'accès à Internet, le répertoire $HOME/data/download/MIMB/ peut être copié depuis un autre serveur qui a accès à Internet, où la commande $HOME/bin/MIMB.sh (ou .bat) -d peut être utilisée pour télécharger en une fois toutes les bibliothèques tierces utilisées par tous les ponts.
En exécutant ce pont d'import, vous reconnaissez être responsable des conditions d'utilisation et de toute autre faille de sécurité potentielle liées au téléchargement de ces bibliothèques logicielles tierces.
VUE D'ENSEMBLE
Importe directement du référentiel Informatica PowerCenter.
PRÉREQUIS
Avant d'essayer d'importer depuis informatica PowerCenter Repository à l'aide de ce pont d'import, effectuez les étapes suivantes :
1. Confirmez que le logiciel client Informatica est installé sur la machine où le pont d'import doit s'exécuter
2. Utilisez l'identifiant et le mot de passe prévus pour le pont d'import pour ouvrir Informatica Designer et voir les métadonnées spécifiques à importer.
FOIRE AUX QUESTIONS
Q : Quelles transformations de PowerCenter ce pont d'import supporte-t-il ?
R : Le pont d'import supporte actuellement ces transformations principales : Readers, Writers, Expressions, Aggregations, Lookups, Joins et Filters. Toutes les autres seront non définies.
Q : Comment fournir au Support les métadonnées nécessaires pour reproduire un problème ?
R : Créez une sauvegarde des métadonnées d'Informatica PowerCenter que vous essayez d'importer à l'aide de la commande pmrep dans l'invite de commande sur une machine dotée de l'installation complète d'Informatica PowerCenter et capable de se connecter au référentiel. Ouvrez une invite de commande sur le serveur d'applications et accédez au répertoire dans lequel se trouve le fichier pmrep.exe (il est identique à celui du paramètre "Chemin d'accès aux fichiers binaires d'Informatica" du pont d'import)
Saisissez les commandes suivantes :
- "pmrep.exe"
- "connect -r Repo_name -n user_name -x password -h host -o port"
où ces variables correspondent aux entrées du pont d'import pour la connexion à PowerCenter Repository
- "backup -o c:\temp\InfaBackup.dat"
Le fichier de sauvegarde est écrit dans Informatica PowerCenter Server et peut être récupéré à cet emplacement.
LIMITATIONS
Consultez les limitations générales connues à l'adresse
Note concernant la complétude de l'import des métadonnées pour la présentation du lignage.
Si un utilisateur demande le lignage d'une colonne de data warehouse, il s'attend à obtenir une réponse correspondant à la réalité du temps d'exécution de l'ensemble du processus ETL (plan d'exécution). Le processus peut inclure plusieurs systèmes sources, plusieurs phases et plusieurs incréments.
Dans le cas d'Informatica, un processus ETL exécute des workflows. Un workflow peut être exécuté plusieurs fois avec différents paramètres. Tous les types de paramètres n'affectent pas le lignage. La connectivité ou SQL écrase les paramètres qui modifient les sources ou les cibles qui affectent le lignage. Les paramètres de date qui contrôlent le chargement incrémentiel n'affectent pas le lignage.
Le référentiel Informatica stocke les workflows dans des dossiers. La structure des dossiers Informatica peut être alignée sur la structure du processus d'exécution mais cela n'est pas obligatoire.
Il est recommandé d'importer les métadonnées d'Informatica selon le processus d'exécution d'ETL. Pour y parvenir, consultez le data warehouse/Architecte ETL/Administrateur pour trouver la liste de tous les workflows et leurs paramètres correspondants qui composent l'ensemble du processus ETL.
Cette analyse peut inclure :
- de multiples systèmes sources : un plan d'exécution à une seule source extrait des données à partir d'une seule instance d'un seul système source. Un plan d'exécution à plusieurs sources extrait des données à partir de plusieurs instances du même système source (homogène) ou de plusieurs instances de différents systèmes sources (hétérogène). Par exemple, il est possible qu'une entreprise possède une instance d'ERP dans un emplacement et un fuseau horaire, et une autre instance du même ERP dans un autre emplacement et un autre fuseau horaire (homogène). Ou encore, il est possible qu'une entreprise possède une instance de CRM dans un emplacement, une instance d'ERP dans un autre emplacement et une seconde instance d'ERP dans un troisième emplacement (hétérogène).
- phases multiples : extraction, chargement, post-traitement
- incréments multiples : complet, incrémentiel et micro-charges
SUPPORT
Fournissez un package de dépannage avec :
- le log de débogage (peut être défini dans l'UI ou dans conf/conf.properties avec MIR_LOG_LEVEL=6)
- la sauvegarde des métadonnées si disponible (peut être configurée dans le paramètre Divers avec l'option -backup, même si cette option commune n'est pas implémentée pour tous les ponts pour des raisons techniques).
Q : Quelle est la cause de l'erreur "Échec de génération du processus...\pmrep.exe" ?
R : Il peut exister plusieurs raisons à cette erreur, notamment des problèmes de configuration déjà évoqués. Une autre possibilité est que pour des dossiers très volumineux dans le référentiel Informatica, l'utilitaire (pmrep.exe) peut ne pas bénéficier de suffisamment de mémoire, sa version étant de 32 bits, si le pont d'import est exécuté dans un environnement Windows. Du côté client, Informatica crée toujours un package pmrep 32 bits uniquement, et, du côté serveur, il crée toujours un package pmrep 64 bits que l'environnement soit Windows ou Linux.
Si vous avez besoin d'un pmrep 64 bits pour Windows, veuillez le récupérer aux emplacements ci-dessous dans l'installation 64 bits :
Serveur :
tools/pcutils (64 bits)
Client :
source\clients\DeveloperClient\pcutils\[version] (64 bits)
Paramètres du pont
Nom du paramètre | Description | Type | Valeurs | Défaut | Périmètre | |||||
Domaine Informatica | Nom de domaine Informatica Non applicable pour les versions antérieures à Informatica PowerCenter 8.0. Pour vous connecter à PowerCenter 7.x ou à une version antérieure, utilisez un nom d'hôte et un numéro de port et ne renseignez pas ce paramètre. | Chaîne de caractères | ||||||||
Domaine de sécurité Informatica | Nom du domaine de sécurité Informatica. Non applicable pour les versions antérieures à Informatica PowerCenter 8.0. Pour vous connecter à PowerCenter 7.x ou à une version antérieure, utilisez un nom d'hôte et un numéro de port et ne renseignez pas ce paramètre. | Chaîne de caractères | Native | |||||||
Nom de l'hôte ou adresse de la passerelle | Facultatif pour Informatica PowerCenter 8.0 ou versions ultérieures, mais requis pour toutes les versions antérieures à la version 8.0. Pour PowerCenter 8.0 et versions ultérieures, saisissez l'adresse de nœud de la passerelle Informatica. Si ce paramètre n'est pas spécifié, Informatica tentera de localiser cette adresse automatiquement. Pour PowerCenter 7.x et versions antérieures, saisissez l'adresse du serveur du référentiel Informatica PowerCenter. |
Chaîne de caractères | ||||||||
Numéro de port de la passerelle | Facultatif pour Informatica PowerCenter 8.0 ou versions ultérieures, mais requis pour toutes les versions antérieures à la version 8.0. Pour PowerCenter 8.0 et versions ultérieures, saisissez le numéro du port du nœud de la passerelle Informatica. Si ce paramètre n'est pas spécifié, Informatica tentera de localiser ce numéro de port automatiquement. Pour PowerCenter 7.x et versions antérieures, saisissez le numéro du port du serveur du référentiel Informatica PowerCenter. |
NUMERIC | ||||||||
Nom du référentiel | Pour PowerCenter 8.0 et versions ultérieures, saisissez le nom du Service du référentiel. Pour PowerCenter 7.x et versions antérieures, saisissez le nom du référentiel Informatica PowerCenter. |
Chaîne de caractères | Éléments obligatoires | |||||||
Nom de l'utilisateur du référentiel | Saisissez le nom d'utilisateur du référentiel Informatica PowerCenter. S'il n'est pas spécifié, l'accès anonyme par défaut est utilisé pour lire et importer des objets du référentiel. Si ce paramètre est spécifié, un mot de passe correspondant doit également être spécifié. L'utilisateur doit avoir l'autorisation "Lecture" sur le(s) dossier(s) de PowerCenter contenant les métadonnées à importer. L'utilisateur doit également disposer du privilège "Accéder au gestionnaire du référentiel" pour accéder au contenu du référentiel PowerCenter. | Chaîne de caractères | Administrator - Administrateur | |||||||
Mot de passe d'utilisateur du référentiel | Saisissez le mot de passe d'utilisateur du référentiel Informatica PowerCenter. Ce paramètre est requis uniquement si le nom d'utilisateur du référentiel est spécifié. Le mot de passe peut être du texte brut ou chiffré à l'aide de l'utilitaire Informatica "pmpasswd". Assurez-vous de définir le paramètre de pont d'import "Le mot de passe d'utilisateur du référentiel est chiffré" pour informer le système du type de mot de passe utilisé. Ce pont d'import est garanti pour être en lecture seule et n'affecte jamais le contenu du référentiel. Il est donc sûr d'effectuer la première collecte de métadonnées en tant qu'"Administrateur" afin de s'assurer que la totalité du contenu du référentiel est extrait sans problème d'autorisation d'accès. L'administrateur peut, éventuellement, configurer un utilisateur en "lecture seule". Pour plus d'informations, consultez la documentation au sujet des autorisations et de la sécurité. |
MOT DE PASSE | ||||||||
Le mot de passe d'utilisateur du référentiel | Définissez cette option comme "Vrai" si vous utilisez un mot de passe chiffré avec l'utilitaire "pmpasswd" du référentiel Informatica PowerCenter, pour plus de sécurité. Sinon, définissez ce paramètre comme "Faux". | BOOLEAN |
|
false | ||||||
Chemin d'accès à PMREP | Chemin d'accès au fichier de l'application PMREP installée avec le client PowerCenter. Le client doit être compatible avec le serveur source du référentiel PowerCenter. Par exemple : 'c:\Informatica\9.6.1\clients\PowerCenterClient\client\bin\pmrep.exe' 'etc/Informatica/bin/pmrep' |
Fichier | *.exe | Éléments obligatoires | ||||||
Filtre sur les noms de dossiers | Saisissez le nom des dossiers de "filtre" dans le référentiel Informatica PowerCenter. Utilisez cette option si vous souhaitez limiter le périmètre d'exploration de la structure du référentiel. S'il est spécifié, le pont d'import ne prendra en compte que ces dossiers et les enfants pour les métadonnées à importer. | REPOSITORY_SUBSET | ||||||||
Object Types | Sélectionnez le(s) type(s) d'objet de métadonnées à importer. "Sources only (Sources uniquement)" Objets sources uniquement. "Targets only (Cibles uniquement)" Objets cibles uniquement. "Workflows only (Workflows uniquement)" Objets de workflow uniquement. "Mappings, sources and targets (Mappings, sources et cibles)" Objets sources, objets cibles et mappings. "All supported objects (Tous les objets supportés)" Tous les objets contenus dans un dossier, importés par ce pont d'import. |
ÉNUMÉRATION |
|
Tous les objets supportés | ||||||
Sous-ensemble du référentiel | Saisissez une liste de chemins d'accès aux objets du référentiel Informatica PowerCenter, séparés par une virgule. Un chemin d'accès est défini comme folder_name/object_type/object_name où : - folder_name est le nom du dossier PowerCenter. Le folder_name peut comporter des guillemets simples ou doubles s'il contient des espaces. - object_type est un des types de PowerCenter supporté : "source", "cible", "mapping" ou "workflow". - object_name est le nom d'objet du référentiel PowerCenter. Utilisez un astérisque (*) si vous avez besoin de tous les objets du type spécifié. Par ex. 'Folder1'/source/account Importez une table source nommée "account" depuis le dossier nommé "Folder1". 'Folder1'/mapping/* Importez tous les mappings du dossier nommé "Folder1". 'Folder1'/source/*;'Folder2'/target/customer Importez toutes les tables sources du dossier nommé "Folder1" et une table cible nommée "customer" du dossier "Folder2". |
REPOSITORY_SUBSET | ||||||||
Répertoire de fichiers de paramètres | Répertoire contenant le(s) fichier(s) de paramètres d'Informatica PowerCenter. Pour des informations détaillées concernant les fichiers de paramètres, consultez la documentation du produit. Informatica utilise des paramètres de substitution qui sont remplacés par des valeurs au moment de l'exécution d'ETL. Tout comme Informatica, le pont d'import cherche ces valeurs dans les fichiers de paramètres disponibles pour le pont d'import. Ce paramètre de pont d'import doit contenir un nom de répertoire, qui est le répertoire racine de tous ces fichiers de paramètres. Si le pont d'import ne parvient pas à trouver la paire nom=valeur pour un paramètre de substitution donné, le pont d'import ne parviendra généralement pas à parser les métadonnées correctement et rapportera des avertissements et des erreurs en conséquence. Il rapportera également le nom du paramètre de substitution non défini. Il existe plusieurs façons de définir des paramètres de substitution et de placer les fichiers de paramètres dans le répertoire référencé ici : - Si vous importez un workflow qui utilise un fichier de paramètres, nommez-le "parameters.prm" et placez le fichier dans le répertoire. - Si vous importez plusieurs workflows réutilisant le même fichier de paramètres, nommez-le "parameters.prm" et placez-le dans le répertoire. - Si vous importez plusieurs workflows qui utilisent différents fichiers de paramètres, placez ces fichiers dans le répertoire, dans des sous-répertoires. Chaque fichier de paramètres porte le nom du workflow qui l'utilise (avec l'extension ".prm") et est placé dans un sous-répertoire qui porte le nom du dossier du référentiel du workflow. Préfixe du chemin d'accès : Vous pouvez utiliser un paramètre de substitution spécial (consultez la section à propos de la définition de variable ci-dessous) "$Static_Directory_Prefix@@" pour ajouter un préfixe à tout chemin d'accès relatif de vos fichiers de paramètres. Par exemple, si votre session fait référence à un fichier de paramètres "folder/subfolder/param.txt", alors, quand cette variable est définie, le MIMB ajoutera comme préfixe la valeur du chemin d'accès relatif et essaiera de trouver le fichier de paramètres. Vous pouvez également utiliser ce paramètre de substitution spécial pour résoudre tous les fichiers, mais uniquement si votre serveur Informatica s'exécute sur Unix et que les fichiers de paramètres sont basés sur des chemins d'accès absolus Unix. Par exemple, si vos fichiers de paramètres sont référencés comme "/opt/params/param.txt", alors vous pouvez créer cette structure de répertoire sur la machine Windows et spécifier le premier répertoire comme valeur pour le paramètre de substitution spécial "$Static_Directory_Prefix@@". Groupes : des en-têtes de groupes peuvent être ajoutés dans le fichier parameters.prm afin de spécifier le contexte pour une paire nom=valeur. Exemples de groupes : [Global] - s'applique à tous les objets dans l'import. [folder name.WF:workflow name.ST:session name] - s'applique à une tâche de session spécifiée dans le workflow spécifié. [folder name.WF:workflow name.WT:worklet name.ST:session name] - s'applique aux tâches d'une session spécifiée à partir d'un worklet donné dans un workflow spécifié. Si le chemin d'accès à la session possède plus d'un worklet, utilisez des constructions ".WT:worklet". [folder name.session name] - s'applique à toutes les sessions dans le dossier spécifié. [folder name.workflow name] - s'applique à tous les workflows dans le dossier spécifié. [session name] - s'applique à toutes les sessions ayant un nom spécifié. Exemples de contexte de groupe global vs local : - Définit le nom de la connexion source "src1" comme "customer_source_DB" pour tous les projets importés : [Global] $DBConnection_src1=customer_source_DB - Définit la valeur de la variable "MyVar" pour la tâche de session "session1" dans le worklet "task1" du workflow "WF1" dans le dossier "Folder1" : [Folder1.WF:WF1.WT:task1.ST:session1] $$MyVar=TEST Le pont d'import recherche des valeurs de paramètres de substitution spécifique dans l'ordre suivant : 1.) Si une session dans Informatica a défini un chemin d'accès à un paramètre de substitution spécifique, alors le pont d'import recherche le fichier et, s'il le trouve, cherche le nom et la valeur de ce paramètre de substitution 2.) Sinon, si un workflow dans Informatica a défini un chemin d'accès à un paramètre de substitution spécifique, alors le pont d'import cherche d'abord ce fichier et, s'il le trouve cherche le nom et la valeur de ce paramètre de substitution 3.) Sinon, s'il y a un chemin d'accès dans le répertoire spécifié ici correspondant au nom du workflow, le pont d'import cherche alors le nom et la valeur de ce paramètre de substitution. Il "remonte" la structure du répertoire (vers un contexte plus général) jusqu'à ce qu'il trouve le nom et la valeur de ce paramètre de substitution. Un groupe peut être spécifié dans ce fichier afin d'appliquer des paires nom=valeur à des sessions spécifiques. 4.) Sinon, si toujours aucune valeur n'est assignée, le pont d'import recherche dans le fichier parameters.prm, dans le répertoire spécifié ici, le nom et la valeur du paramètre de substitution. Lorsque le pont d'import rapporte que la valeur d'un paramètre de substitution spécifique est introuvable, cette situation peut se produire lorsque : - vous n'ayez pas collecté tous les fichiers de paramètres appropriés utilisés par Informatica lors de l'exécution d'ETL - qu'il existe d'autres attributions de paramètres de substitution appliquées globalement via les variables d'environnement à Informatica lors de l'exécution d'ETL. Naturellement, dans le premier cas, vous devriez obtenir les ensembles de fichiers de paramètres appropriés. N'essayez pas de reproduire ces attributions manuellement. Toutefois, dans le second cas, le processus ci-dessous permet de régler le problème : 1.) Ajoutez la paire nom=valeur du paramètre de substitution au fichier parameters.prm dans le répertoire spécifié ici. Cette valeur sera alors appliquée globalement mais sera écrasée si ce même paramètre de substitution est défini dans un contexte plus étroit. Par conséquent, le problème de paramètre de substitution manquant sera résolu sans toutefois modifier les valeurs déjà définies. 2.) Si vous avez besoin de fournir différentes valeurs selon le contexte (imaginons que des workflows différents ont des valeurs de substitution différentes), ajoutez la paire nom=valeur de paramètre de substitution dans un groupe (voir ci-dessus). Cette valeur sera alors appliquée uniquement au contexte défini dans l'en-tête du groupe, mais sera écrasée à nouveau si ce même paramètre de substitution est défini dans un contexte plus étroit. Par conséquent, le problème de paramètre de substitution manquant sera résolu sans toutefois modifier les valeurs déjà définies. 3.) Si vous avez besoin de fournir différentes valeurs selon le contexte (imaginons que des workflows différents ont des valeurs de substitution différentes), vous pouvez également ajouter la paire nom=valeur de paramètre de substitution dans un fichier, dans la structure des sous-répertoires de ce contexte. Une fois encore, cette valeur s'appliquera alors au contexte dans lequel vous avez placé cette paire nom=valeur. En revanche, la priorité lui est donnée par rapport à toute paire nom=valeur définie dans un groupe dans le fichier parameters.prm racine. Par conséquent, le problème de paramètre de substitution manquant sera résolu et le fichier sera la valeur substituée, sauf si la session dans Informatica a été définie avec un nom de chemin d'accès spécifique pour les paramètres de substitution. 4.) Il ne devrait pas y avoir besoin de mettre à jour les fichiers définis par des noms de chemins d'accès dans Informatica pour des sessions spécifiques, car ils devraient être correctement collectés et mis à disposition du pont d'import. Types de connexion : Vous pouvez définir des types de base de données cibles pour une connexion (cela n'est pas défini correctement dans Informatica) à l'aide d'un nom de paramètre de substitution tel que : Connection.[name].DBTYPE Par exemple, si une connexion nommée "ODBC_Connections" se voit attribuer le type de base de données Oracle à l'exécution, vous pouvez utiliser la paire nom=valeur "DBTYPE" (dans ce cas, le pont d'import sait que "ODBC_Connection" est de type Oracle et il utilisera le bon gestionnaire pour parser les métadonnées) : Connection.ODBC_Connection.DBTYPE=ORACLE Le type de base de données n'est pas sensible à la casse. Liste des valeurs possibles : - Access - Cassandra - DB2 - Denodo - Hive - Informix - Microsoft SQL Server - MySQL - Netezza - ODBC - PostgreSQL - Presto - Redshift - Salesforce - SAP BW - SAP HANA - SAP R/3 - Snowflake - Sybase - Teradata - Vectorwise - Vertica - Oracle Alias : Si vous savez que deux connexions avec des noms différents ciblent les mêmes données dans une base de données, utilisez "ALIAS" pour signaler au pont d'import de les traiter comme la même source de données dans le lignage comme ceci : Connection.ODBC_Connection.ALIAS=oracleDB Connection.Oracle_Connection.ALIAS=oracleDB avec ces définitions, les noms des connexions spécifiées seront remplacés par "oracleDB" au moment de l'exécution et les lignages seront calculés en conséquence. Schémas : Vous pouvez écraser un schéma par défaut pour une connexion à l'aide de "SCHEMA" : Connection.DB_Conn.SCHEMA=dbo un schéma vide pour DB_Conn sera remplacé par "dbo" dans ce cas. |
RÉPERTOIRE | ||||||||
Contrôle du cache | Si ce paramètre est défini comme "Vrai", le pont d'import récupèrera les modifications depuis le dernier démarrage. Sinon, tous les caches seront abandonnés et ignorés. | BOOLEAN |
|
false | ||||||
Miscellaneous | INTRODUCTION Spécifiez les options Divers, commençant par un tiret et suivies éventuellement par des paramètres, par exemple : -connection.cast MyDatabase1="MICROSOFT SQL SERVER" Certaines options peuvent être utilisées plusieurs fois, si applicable, par exemple : -connection.rename NewConnection1=OldConnection1 -connection.rename NewConnection2=OldConnection2; La liste d'options pouvant être une longue chaîne, il est possible de la charger à partir d'un fichier qui doit être situé dans ${MODEL_BRIDGE_HOME}\data\MIMB\parameters et avoir l'extension .txt. Dans ce cas, toutes les options doivent être définies au sein de ce fichier comme seule valeur de ce paramètre, par exemple ETL/Miscellaneous.txt OPTIONS DE L'ENVIRONNEMENT JAVA -java.memory <taille maximale de la mémoire Java> (anciennement -m) 1 Go par défaut sur un JRE de 64 bits ou tel que défini dans conf/conf.properties, par exemple -java.memory 8G -java.memory 8000M -java.parameters <options de ligne de commande de Java Runtime Environment> (anciennement -j) Cette option doit être la dernière dans le paramètre Divers car tout le texte après -java.parameters est passé tel quel à la JRE. Par ex. -java.parameters -Dname=value -Xms1G L'option suivante doit être définie lorsqu'un proxy est utilisé pour accéder à Internet (cela est essentiel pour accéder à https://repo.maven.apache.org/maven2/ et exceptionnellement à quelques autres sites d'outils) afin de télécharger les bibliothèques logicielles tierces nécessaires. Note : La majorité des proxys sont relatifs au chiffrement (HTTPS) du trafic extérieur (à l'entreprise) et à la confiance en le trafic intérieur pouvant accéder au proxy via HTTP. Dans ce cas, une requête HTTPS atteint le proxy via HTTP où le proxy la chiffre en HTTPS. -java.parameters -java.parameters -Dhttp.proxyHost=127.0.0.1 -Dhttp.proxyPort=3128 -Dhttp.proxyUser=user -Dhttp.proxyPassword=pass OPTIONS D'IMPORT DU MODÈLE -model.name <nom modèle> Écrase le nom du modèle, par ex. -model.name "My Model Name" -prescript <nom script> Cette option permet d'exécuter un script avant l'exécution du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -prescript "script.bat arg1 arg2" -postscript <nom script> Cette option permet d'exécuter un script après l'exécution réussie du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -postscript "script.bat arg1 arg2" -cache.clear Vide le cache avant l'import et va exécuter un import complet avec collecte incrémentale. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. -backup <répertoire> Permet d'enregistrer les métadonnées d'entrée à des fins de débogage. Le <répertoire> fourni doit être vide. -restore <répertoire> Spécifiez le <répertoire> de sauvegarde à restaurer. OPTIONS DES CONNEXIONS DE DONNÉES Les connexions de données sont produites par les ponts d'import, généralement à partir des outils ETL/DI et BI pour faire référence aux data stores sources et cibles qu'elles utilisent. Ces connexions de données sont ensuite utilisées par les outils de gestion des métadonnées pour connecter ces dernières (connexion des métadonnées) à leurs data stores réels (par exemple, bases de données, système de fichiers, etc.) afin de produire le lignage complet de flux de données et de l'analyse d'impact de bout en bout. Le nom des connexions de données doit être unique dans chaque modèle d'import. Les noms de connexion de données utilisés dans les outils de conception DI/BI sont utilisés quand cela est possible, sinon ils sont générés en étant courts mais significatifs, comme le nom de la base de données/du schéma, le chemin d'accès au système de fichiers ou l'URI (Uniform Resource Identifier). L'option suivante vous permet de manipuler les connexions. Ces options remplacent les options héritées -c, -cd et -cs. -connection.cast ConnectionName=ConnectionType Lance une connexion à une base de données générique (par exemple ODBC/JDBC) pour un type de base de données précis (par exemple ORACLE) pour une analyse SQL, par exemple -connection.cast "My Database"="MICROSOFT SQL SERVER". La liste des types de connexions aux data stores comprend : ACCESS APACHE CASSANDRA DB2/UDB DENODO GOOGLE BIGQUERY HIVE MYSQL NETEZZA ORACLE POSTGRESQL PRESTO REDSHIFT SALESFORCE SAP HANA SNOWFLAKE MICROSOFT SQL AZURE MICROSOFT SQL SERVER SYBASE SQL SERVER SYBASE AS ENTERPRISE TERADATA VECTORWISE HP VERTICA -connection.rename OldConnection=NewConnection Renomme une connexion existante, par exemple, par ex. -connection.rename OldConnectionName=NewConnectionName Plusieurs connexions de bases de données existantes peuvent être renommées et fusionnées en une nouvelle connexion de base de données, par exemple : -connection.rename MySchema1=MyDatabase -connection.rename MySchema2=MyDatabase -connection.split oldConnection.Schema1=newConnection Scinde une connexion de base de données en une ou plusieurs connexions de base de données. Une connexion de base de données peut être scindée en une connexion par schéma, par exemple : -connection.split MyDatabase Toutes les connexions de base de données peuvent être fractionnées en une connexion par schéma, par exemple : -connection.split * Une connexion de base de données peut être explicitement fractionnée en une nouvelle connexion de base de données en ajoutant un nom de schéma à une base de données, par exemple : -connection.split MyDatabase.schema1=MySchema1 -connection.map SourcePath=DestinationPath Mappe un chemin d'accès source à un chemin d'accès de destination. Cela est utile pour les connexions aux systèmes de fichiers lorsque différents chemins d'accès pointent vers le même objet (répertoire ou fichier). Sur Hadoop, un processus peut écrire dans un fichier CSV spécifié avec le chemin d'accès complet HDFS, tandis qu'un autre processus lit d'une table Hive implémentée (externe) par le même fichier spécifié à l'aide d'un chemin d'accès relatif avec un nom et une extension de fichier par défaut, par exemple : -connection.map /user1/folder=hdfs://host:8020/users/user1/folder/file.csv Sous Linux, il peut être fait référence à un répertoire (ou à un fichier) donné tel que /data par plusieurs liens symboliques tels que /users/john et /users/paul, par exemple : -connection.map /data=/users/John -connection.map /data=/users/paul Sous Windows, il peut être fait référence à un répertoire donné tel que C:\data par plusieurs lecteurs réseau tels que M: et N:, par exemple : -connection.map C:\data=M:\ -connection.map C:\data=N:\ -connection.casesensitive ConnectionName... Écrase les règles de rapprochement insensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple : -connection.casesensitive "My Database" -connection.caseinsensitive ConnectionName... Écrase les règles de rapprochement sensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple : -connection.caseinsensitive "My Database" -connection.level AggregationLevel Spécifie le niveau d'agrégation pour les connexions externes, par exemple -connection.level catalog Liste des valeurs supportées : server (serveur) catalog (catalogue) schema (schéma) (par défaut) OPTIONS ETL Ces options sont disponibles dans tous les ponts d'import de scrit et d'outils d'intégration de données/d'ETL afin de : - traiter tous les parsages SQL - construire des modèles au moment de l'exécution à partir de modèles de conception et de variables d'exécution, - calculer un lignage de synthèse au moment de l'exécution. -etl.summary.add.ultimate (anciennement -ppus) Ajoute la dernière synthèse de lignage d'exécution (peut générer un modèle très volumineux). -etl.summary.only.ultimate (précédemment -ppsp) Produit uniquement la dernière synthèse de lignage d'exécution (peut générer un modèle très volumineux). -etl.connections.add.internal.design (précédemment -pppd) Ajoute les connecteurs internes de données de conception ETL (requis pour la conversion ETL). -etl.connections.remove.input (anciennement -ri) Supprime toutes les connexions de données d'entrée (source), afin de réduire la taille du modèle généré. -etl.transformations.enable.xml Cette option permet le parsage et le support des transformations XML dans des ponts d'import d'intégration de données/ETL comme Informatica PowerCenter, Informatica Developer, Microsoft SSIS, IBM DataStage et Talend Data Integration. Dans le cas d'Informatica, de telles transformations XML correspondent aux fonctionnalités suivantes de PowerCenter https://docs.informatica.com/data-integration/powercenter/10-5/xml-guide/midstream-xml-transformations.html https://docs.informatica.com/data-integration/powercenter/10-5/xml-guide/xml-source-qualifier-transformation.html Notez que cette option peut ralentir l'import de manière considérable. OPTIONS INFORMATICA POWERCENTER -pc.parameters.enable.extensions (précédemment -e) Autorisez toutes les extensions de fichier de paramètres. Par défaut, les extensions de fichier .TXT et .PRM pour les "Répertoires de fichiers de paramètres" sont supportées. -pc.xml.ignore.illegalcharacters (précédemment -i) Supprimez les caractères XML non autorisés. -l <path> Configurez la variable d'environnement INFA_HOME_PATH pour qu'elle pointe vers le répertoire où PMREP est installé. -p <chemin d'accès au fichier> Chemin d'accès au fichier du XML ou répertoire importé par le pont d'import depuis l'outil Informatica. Cette option est utilisée à des fins de débogage. -f Utilisez cette option si le pont d'import doit importer chaque dossier séparément. -cp <chaîne de caractères> Spécifiez la valeur de page de codes à utiliser si la variable d'environnement INFA_CODEPAGENAME n'est pas définie. Veuillez consulter la documentation Informatica pour obtenir plus d'informations concernant les valeurs de page de codes supportées de la variable. Par ex. -cp UTF-8 -encrypt.password Activer le chiffrement automatique du mot de passe de l'utilisateur du référentiel ('Repository User Password') via pmpasswd (ou pmpasswd.exe). pmpasswd doit se situer dans le même répertoire que PMREP ou être spécifié explicitement (par ex. -encrypt.password /informatica/server/bin/pmpasswd). Si pmpasswd manque ou si le chiffrement échoue, le mot de passe plein texte sera utilisé. -environment.variable Configure une langue différente pour vous connecter à un domaine de sécurité différent, si vous rencontrez des problèmes lorsque vous parcourez ou sélectionnez les ressources à importer : -INFA_LANGUAGE=en |
Chaîne de caractères |
Mapping du pont
Meta Integration Repository (MIR) Métamodèle (se base sur le standard OMG CWM) |
"Informatica PowerCenter (Référentiel)" Métamodèle Informatica PowerCenter Repository |
Mapping des commentaires |
Association | SourceField, TargetField | Construit sur les informations de clé étrangère |
Agrégation | KeyType, Nullable | |
AssociationRole | SourceField, TargetField | |
Multiplicité | Basé sur les informations source et l'attribut KeyType | |
Source | Se base sur les informations de clés étrangères | |
AssociationRoleNameMap | SourceField, TargetField | |
Attribut | SourceField, TargetField | |
Description | Description | |
Name (Nom) | BusinessName | Configuré à Name (Nom) si BusinessName n'est pas configuré |
Facultatif | Nullable | |
PhysicalName | Name (Nom) | Nom physique de l'attribut. Calculé depuis le champ "Name (Nom)" si non configuré |
Position | FieldNumber | |
BaseType | SourceField, TargetField | |
DataType (TypeDeDonnées) | Datatype | Voir le tableau de conversion des types de données |
Name (Nom) | Se base sur le type de données | |
PhysicalName | Dérivé du type de données | |
CandidateKey | SourceField, TargetField, TargetIndex | |
UniqueKey | KeyType, TargetIndex.Unique | |
Classe | Source, Cible | |
CppClassType | Configuré comme ENTITÉ | |
CppPersistent | Configuré à Vrai | |
Description | Description | |
DimensionalRole | extension des métadonnées du rôle dimensionnel | |
DimensionalType | extension des métadonnées du type de rôle dimensionnel | |
Name (Nom) | BusinessName | Configuré à Name (Nom) si BusinessName n'est pas configuré |
PhysicalName | Name (Nom) | Nom physique de la classe. Calculé depuis le champ "Nom" si non configuré |
ClassifierMap | Transformation, Instance | |
Name (Nom) | Name (Nom) | |
DataAttribute | TransformField | |
Description | Description | |
Name (Nom) | Name (Nom) | |
DataSet | Transformation, Instance | |
Name (Nom) | Name (Nom) | |
DatabaseSchema | Source, Cible | Tables et vues appartenant au propriétaire |
Name (Nom) | Nom DBD ou nom de connexion | Le nom DBD est pour les sources uniquement. Nom de la connexion si présent |
DerivedType | SourceField, TargetField | |
DataType (TypeDeDonnées) | Datatype | Voir le tableau de conversion des types de données |
Length (Longueur) | Precision | |
Name (Nom) | Datatype | Voir le tableau de conversion des types de données |
PhysicalName | Dérivé du type de données | |
Échelle | Échelle | |
UserDefined | Configuré à Faux | |
DesignPackage | Référentiel, Dossier, Version du dossier, Source, Cible | Des packages SOURCE et CIBLE sont créés pour contenir les sous-packages sources et les classes cibles respectivement. Les packages sont également créés pour les Mappings et Workflows. |
Description | Description | |
Name (Nom) | Nom, Source.DBDName | Nom, Source.DBDName |
UserDefined | Configuré à Vrai | |
FeatureMap | TransformField | |
Name (Nom) | Name (Nom) | |
Operation (Opération) | Expression | |
ForeignKey | SourceField, TargetField | |
Index | TargetIndex | |
Name (Nom) | Name (Nom) | |
IndexMember | TargetIndexField | |
Position | position dans le fichier XML | |
StoreModel | Fichier PowerCenter | |
Name (Nom) | Se base sur le nom du fichier |