Format de métadonnées Excel - Import
Prérequis du pont
Ce pont :nécessite un accès à Internet vers https://repo.maven.apache.org/maven2/ et/ou d'autres sites d'outils permettant de télécharger des pilotes dans <TDC_HOME>/data/download/MIMB/.
nécessite une installation de l'outil pour accéder à son SDK.
Spécifications du pont
Fournisseur | Meta Integration Technology, Inc. |
Nom de l'outil | Format de métadonnées Excel |
Version de l'outil | Excel 2003 à 2010 |
Site Web de l'outil | Model Bridge (MIMB) Guide |
Méthodologie supportée | [Gestion des métadonnées] Multimodèle, ETL (Data stores sources et cibles, Lignage de transformation, Parsage d'expressions) via un fichier Excel 2007 (XLSX) |
Profiling de données | ![]() |
Collecte incrémentale | ![]() |
Collecte multi-modèle | ![]() |
Navigation dans le référentiel distant pour sélectionner un modèle | ![]() |
SPÉCIFICATIONS
Outil : Meta Integration Technology, Inc./Format de métadonnées Excel version Excel 2003 à 2010 via un fichier Excel 2007 (XLSX)
Consultez MIMB Known Limitations
Le format Excel Metadata n'est pas recommandé, particulièrement pour la documentation, notamment pour le Nom métier et la Description métier. Le client doit utiliser le format CSV à la place pour l'export, la modification et le réimport, comme expliqué dans le Guide d'utilisation, qui va documenter les data stores et non les définitions de connexions.
1. Toutes les feuilles de calcul de métadonnées sources doivent être définies au format Standard, car c'est le seul format qui est directement supporté. Pour accommoder une activité de migration héritée impliquant un grand nombre de feuilles de calcul existantes, le format attendu par le pont d'import n'est pas codé en dur mais défini par les feuilles de calcul vides spécifiant la manière dont chaque cellule de feuille de calcul est liée à un métamodèle de référentiel neutre. Cette flexibilité n'est disponible qu'avec un pont d'import personnalisé spécifique et qui doit être fourni par des services d'assistance.
2. Bien que les deux fonctions d'import (lecture à partir d'une feuille de calcul) et d'export (écriture dans une feuille de calcul) sont disponibles, elles ne sont pas faites pour supporter des allers-retours de re-traitement. Par exemple, les prérequis de mapping peuvent subir un traitement préalable dans un outil d'intégration de données/ETL mais le but de réexporter depuis cet outil d'intégration de données/ETL dans Excel est de fournir un résumé de lignage de mapping indépendant des diverses transformations internes complexes et de ne pas re-traiter la conception ni de la réimporter.
3. Les modèles d'outil de conception et d'architecture de données supportent des éditions de type aller-retour dans Excel afin d'exploiter les fonctions de correcteur d'orthographe, de copier-coller basé sur les colonnes et lignes et d'autres aspects pratiques inhérents à un environnement de feuille de calcul. Dans ce cas, la feuille de calcul doit être exportée, modifiée, puis réimportée dans l'outil de conception d'origine, tirant ainsi profit des fonctions de comparaison et de fusion fournies par l'outil de "réception".
4. Les nouveaux data stores sources ou cibles peuvent être exportés vers une feuille de calcul existante, mais sans bénéficier des fonctions de fusion ou de mise à jour cette fois. De plus, lors de l'import d'une feuille de calcul Excel dans un outil d'intégration de données/ETL, l'outil "récepteur" est responsable de l'intégration/la fusion des modèles ainsi que des mappings dans ses versions existantes.
5. Des suppositions et limitations sont fournies pour chaque format pré-défini dans le fichier ${MODEL_BRIDGE_HOME}\conf\MIRModelBridgeTemplate\MIRMicrosoftExcel\*-Blank.xlsx approprié.
6. Dans certains cas, l'utilisation d'une feuille de calcul pour gérer des métadonnées peut connaître des limitations. Par exemple, il n'existe pas de limite du nombre d'entités/tables par modèle ou du nombre d'attributs/colonnes par entité/table. Toutefois, il existe des limitations pour toute information représentée comme colonnes pour des raisons de facilité d'utilisation. Par exemple, l'imbrication de packages dans un modèle, le nombre de clés PK/FK/AK dans lesquelles un attribut/une colonne donné(e) est impliqué(e) et, plus important encore, le nombre de propriétés définies par l'utilisateur (UDP) personnalisées associées à une entité/table, un attribut/une colonne ou un type de données.
7. Le type de fichier plat supporte les fichiers plats délimités ou à largeur fixe. Les fichiers à largeur fixe utilisent l'attribut de position pour définir le "nombre absolu de caractères à partir du début de la ligne" pour chaque champ/colonne. Les fichiers délimités utilisent l'attribut de position pour reproduire l'ordre des champs/colonnes.
8. À propos de la différence entre Commentaires et Descriptions :
Un modèle de données physique possède un "Commentaire" sur une table qui au final est généré comme Commentaire SQL dans le DDL.
Un modèle de données logique possède une "Description" sur une entité. Cette entité logique peut être associée à une table physique si le modèle est Logique/physique. En revanche, un modèle Physique uniquement ne peut pas avoir ni de description, ni de commentaire par nature.
Par conséquent, si un ou une entité/table/enregistrement/vue/fichier a le niveau de conception Logique/physique, vous pourrez voir séparément un commentaire (physique) et une description (logique).
Toutefois, si un ou une entité/table/enregistrement/vue/fichier a le niveau de conception Physique uniquement, seule une description peut être prise du commentaire (physique) ou de la description (logique) si elle existe (dans ce cas le commentaire physique est ignoré).
SUPPORT
Fournissez un package de dépannage avec :
- le log de débogage (peut être défini dans l'UI ou dans conf/conf.properties avec MIR_LOG_LEVEL=6)
- la sauvegarde des métadonnées si disponible (peut être configurée dans le paramètre Divers avec l'option -backup, même si cette option commune n'est pas implémentée pour tous les ponts pour des raisons techniques).
Paramètres du pont
Nom du paramètre | Description | Type | Valeurs | Défaut | Périmètre |
Fichier | Ce pont d'import lit une feuille de calcul Excel au format XLSX et crée un modèle à partir de ses informations textuelles. Le paramètre "Fichier" doit contenir le nom de cette première feuille de calcul, généralement qualifiée de "feuille de calcul d'import de métadonnées". Cette feuille de calcul d'import de métadonnées DOIT posséder le format correspondant à celui de la feuille de calcul vide. Veuillez trouver des exemples de ces feuilles de calcul d'import de métadonnées en suivant le chemin d'accès : ${MODEL_BRIDGE_HOME}/conf/MIRModelBridgeTemplate/MIRMicrosoftExcel/BlankFiles/ À l'aide de ces fichiers, vous pourrez créer simplement une feuille de calcul d'import de métadonnées avec vos propres informations de modèle qui correspondent à ces exemples. |
Fichier | *.xlsx | Éléments obligatoires | |
Miscellaneous | INTRODUCTION Spécifiez les options Divers, commençant par un tiret et suivies éventuellement par des paramètres, par exemple : -connection.cast MyDatabase1="MICROSOFT SQL SERVER" Certaines options peuvent être utilisées plusieurs fois, si applicable, par exemple : -connection.rename NewConnection1=OldConnection1 -connection.rename NewConnection2=OldConnection2; La liste d'options pouvant être une longue chaîne, il est possible de la charger à partir d'un fichier qui doit être situé dans ${MODEL_BRIDGE_HOME}\data\MIMB\parameters et avoir l'extension .txt. Dans ce cas, toutes les options doivent être définies au sein de ce fichier comme seule valeur de ce paramètre, par exemple ETL/Miscellaneous.txt OPTIONS DE L'ENVIRONNEMENT JAVA -java.memory <taille maximale de la mémoire Java> (anciennement -m) 1 Go par défaut sur un JRE de 64 bits ou tel que défini dans conf/conf.properties, par exemple -java.memory 8G -java.memory 8000M -java.parameters <options de ligne de commande de Java Runtime Environment> (anciennement -j) Cette option doit être la dernière dans le paramètre Divers car tout le texte après -java.parameters est passé tel quel à la JRE. Par ex. -java.parameters -Dname=value -Xms1G L'option suivante doit être définie lorsqu'un proxy est utilisé pour accéder à Internet (cela est essentiel pour accéder à https://repo.maven.apache.org/maven2/ et exceptionnellement à quelques autres sites d'outils) afin de télécharger les bibliothèques logicielles tierces nécessaires. Note : La majorité des proxys sont relatifs au chiffrement (HTTPS) du trafic extérieur (à l'entreprise) et à la confiance en le trafic intérieur pouvant accéder au proxy via HTTP. Dans ce cas, une requête HTTPS atteint le proxy via HTTP où le proxy la chiffre en HTTPS. -java.parameters -java.parameters -Dhttp.proxyHost=127.0.0.1 -Dhttp.proxyPort=3128 -Dhttp.proxyUser=user -Dhttp.proxyPassword=pass OPTIONS D'IMPORT DU MODÈLE -model.name <nom modèle> Écrase le nom du modèle, par ex. -model.name "My Model Name" -prescript <nom script> Cette option permet d'exécuter un script avant l'exécution du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -prescript "script.bat arg1 arg2" -postscript <nom script> Cette option permet d'exécuter un script après l'exécution réussie du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -postscript "script.bat arg1 arg2" -cache.clear Vide le cache avant l'import et va exécuter un import complet avec collecte incrémentale. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. -backup <répertoire> Permet d'enregistrer les métadonnées d'entrée à des fins de débogage. Le <répertoire> fourni doit être vide. -restore <répertoire> Spécifiez le <répertoire> de sauvegarde à restaurer. OPTIONS DES CONNEXIONS DE DONNÉES Les connexions de données sont produites par les ponts d'import, généralement à partir des outils ETL/DI et BI pour faire référence aux data stores sources et cibles qu'elles utilisent. Ces connexions de données sont ensuite utilisées par les outils de gestion des métadonnées pour connecter ces dernières (connexion des métadonnées) à leurs data stores réels (par exemple, bases de données, système de fichiers, etc.) afin de produire le lignage complet de flux de données et de l'analyse d'impact de bout en bout. Le nom des connexions de données doit être unique dans chaque modèle d'import. Les noms de connexion de données utilisés dans les outils de conception DI/BI sont utilisés quand cela est possible, sinon ils sont générés en étant courts mais significatifs, comme le nom de la base de données/du schéma, le chemin d'accès au système de fichiers ou l'URI (Uniform Resource Identifier). L'option suivante vous permet de manipuler les connexions. Ces options remplacent les options héritées -c, -cd et -cs. -connection.cast ConnectionName=ConnectionType Lance une connexion à une base de données générique (par exemple ODBC/JDBC) pour un type de base de données précis (par exemple ORACLE) pour une analyse SQL, par exemple -connection.cast "My Database"="MICROSOFT SQL SERVER". La liste des types de connexions aux data stores comprend : ACCESS APACHE CASSANDRA DB2/UDB DENODO GOOGLE BIGQUERY HIVE MYSQL NETEZZA ORACLE POSTGRESQL PRESTO REDSHIFT SALESFORCE SAP HANA SNOWFLAKE MICROSOFT SQL AZURE MICROSOFT SQL SERVER SYBASE SQL SERVER SYBASE AS ENTERPRISE TERADATA VECTORWISE HP VERTICA -connection.rename OldConnection=NewConnection Renomme une connexion existante, par exemple, par ex. -connection.rename OldConnectionName=NewConnectionName Plusieurs connexions de bases de données existantes peuvent être renommées et fusionnées en une nouvelle connexion de base de données, par exemple : -connection.rename MySchema1=MyDatabase -connection.rename MySchema2=MyDatabase -connection.split oldConnection.Schema1=newConnection Scinde une connexion de base de données en une ou plusieurs connexions de base de données. Une connexion de base de données peut être scindée en une connexion par schéma, par exemple : -connection.split MyDatabase Toutes les connexions de base de données peuvent être fractionnées en une connexion par schéma, par exemple : -connection.split * Une connexion de base de données peut être explicitement fractionnée en une nouvelle connexion de base de données en ajoutant un nom de schéma à une base de données, par exemple : -connection.split MyDatabase.schema1=MySchema1 -connection.map SourcePath=DestinationPath Mappe un chemin d'accès source à un chemin d'accès de destination. Cela est utile pour les connexions aux systèmes de fichiers lorsque différents chemins d'accès pointent vers le même objet (répertoire ou fichier). Sur Hadoop, un processus peut écrire dans un fichier CSV spécifié avec le chemin d'accès complet HDFS, tandis qu'un autre processus lit d'une table Hive implémentée (externe) par le même fichier spécifié à l'aide d'un chemin d'accès relatif avec un nom et une extension de fichier par défaut, par exemple : -connection.map /user1/folder=hdfs://host:8020/users/user1/folder/file.csv Sous Linux, il peut être fait référence à un répertoire (ou à un fichier) donné tel que /data par plusieurs liens symboliques tels que /users/john et /users/paul, par exemple : -connection.map /data=/users/John -connection.map /data=/users/paul Sous Windows, il peut être fait référence à un répertoire donné tel que C:\data par plusieurs lecteurs réseau tels que M: et N:, par exemple : -connection.map C:\data=M:\ -connection.map C:\data=N:\ -connection.casesensitive ConnectionName... Écrase les règles de rapprochement insensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple : -connection.casesensitive "My Database" -connection.caseinsensitive ConnectionName... Écrase les règles de rapprochement sensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple : -connection.caseinsensitive "My Database" -connection.level AggregationLevel Spécifie le niveau d'agrégation pour les connexions externes, par exemple -connection.level catalog Liste des valeurs supportées : server (serveur) catalog (catalogue) schema (schéma) (par défaut) OPTIONS ETL Ces options sont disponibles dans tous les ponts d'import de scrit et d'outils d'intégration de données/d'ETL afin de : - traiter tous les parsages SQL - construire des modèles au moment de l'exécution à partir de modèles de conception et de variables d'exécution, - calculer un lignage de synthèse au moment de l'exécution. -etl.summary.add.ultimate (anciennement -ppus) Ajoute la dernière synthèse de lignage d'exécution (peut générer un modèle très volumineux). -etl.summary.only.ultimate (précédemment -ppsp) Produit uniquement la dernière synthèse de lignage d'exécution (peut générer un modèle très volumineux). -etl.connections.add.internal.design (précédemment -pppd) Ajoute les connecteurs internes de données de conception ETL (requis pour la conversion ETL). -etl.connections.remove.input (anciennement -ri) Supprime toutes les connexions de données d'entrée (source), afin de réduire la taille du modèle généré. -etl.transformations.enable.xml Cette option permet le parsage et le support des transformations XML dans des ponts d'import d'intégration de données/ETL comme Informatica PowerCenter, Informatica Developer, Microsoft SSIS, IBM DataStage et Talend Data Integration. Dans le cas d'Informatica, de telles transformations XML correspondent aux fonctionnalités suivantes de PowerCenter https://docs.informatica.com/data-integration/powercenter/10-5/xml-guide/midstream-xml-transformations.html https://docs.informatica.com/data-integration/powercenter/10-5/xml-guide/xml-source-qualifier-transformation.html Notez que cette option peut ralentir l'import de manière considérable. |
Chaîne de caractères |
Mapping du pont
Meta Integration Repository (MIR) Métamodèle (se base sur le standard OMG CWM) |
"Format de métadonnées Excel" Métamodèle MicrosoftExcel |
Mapping des commentaires |
Attribut | Attributs, SourceAttributes ou TargetAttributes | |
Comment | Commentaire de l'attribut | |
Description | Description de l'attribut | |
InitialValue | Valeur initiale de l'attribut | |
Name (Nom) | Nom d'attribut Talend Administration Center | |
Facultatif | Attribut facultatif | Attribut requis |
PhysicalName | Nom physique de l'attribut | |
Position | Position de l'attribut | |
Classe | Classes, SourceClasses (Classes sources) ou TargetClasses (Classes cibles) | |
Comment | Commentaire de la classe | |
Description | Description de la classe | |
Name (Nom) | Class Name (Nom de la classe) | |
PhysicalName | Nom physique de la classe | |
ClassifierMap | Calculé en se basant sur les FeatureMaps | |
DataAttribute | Calculé en se basant sur les FeatureMaps | |
DataSet | Créé en se basant sur la Transformation | |
DatabaseSchema | Schémas, SourceSchemas ou TargetSchemas | Créé en se basant sur le "Type système" |
Commentaire | Commentaire du schéma | |
Description | Description du schéma | |
Name (Nom) | Nom du schéma | |
PhysicalName | Nom physique du schéma | |
DerivedType | Créé en utilisant le "Type de données hérité de" ou calculé en se basant sur les données du modèle. | |
Comment | Commentaire du type de données | |
Description | Description du type de données | |
InitialValue | Valeur initiale du type de données | |
Length (Longueur) | Longueur du type de données | |
LowerBound | Valeur min du type de données | |
Name (Nom) | Nom du type de données | |
PhysicalName | Nom physique du type de données | |
Échelle | Échelle du type de données | |
UpperBound | Valeur max du type de données | |
UserDefined | Calculé en se basant sur l'utilisation du type de données | |
DesignPackage | DataPackages, SourceDataPackages ou TargetDataPackages | |
Comment | Commentaire du package | |
Description | Description du package | |
Name (Nom) | Nom du package | |
PhysicalName | Nom physique du package | |
FeatureMap | FeatureMaps | Calculé en se basant sur les références des attributs sources et cibles. |
Description | Description de la FeatureMap | |
Name (Nom) | Nom de la FeatureMap | |
Operation (Opération) | Opération de la FeatureMap | |
FileDirectory | Schémas, SourceSchemas ou TargetSchemas | Créé en se basant sur le "Type système" |
Commentaire | Commentaire du schéma | |
Description | Description du schéma | |
Name (Nom) | Nom du schéma | |
PhysicalName | Nom physique du schéma | |
PropertyType | Défini dans le modèle | |
DataType (TypeDeDonnées) | Défini dans le modèle | |
InitialValue | Défini dans le modèle | |
Name (Nom) | Défini dans le modèle | |
Name (Nom) | Défini dans le modèle | |
Valeur | Défini dans le modèle | |
StoreModel | Modèles | |
Author | Heure de création du modèle | |
Comment | Commentaire du modèle | |
CreationTime | Heure de création du modèle | |
Description | Description du modèle | |
ModificationTime | Heure de création du modèle | |
Modificateur | Heure de création du modèle | |
Name (Nom) | Nom du modèle | |
PhysicalName | Nom du modèle physique | |
SystemType | Type du système | |
SystemTypeOld | Type du système | |
TypeValue | DataTypes, SourceDataTypes ou TargetDataTypes | |
Description | Data Type Enumerated Value Description | |
Name (Nom) | Data Type Enumerated Value |