Matillion - Import
Prérequis du pont
Ce pont :nécessite un accès à Internet vers https://repo.maven.apache.org/maven2/ et/ou d'autres sites d'outils permettant de télécharger des pilotes dans <TDC_HOME>/data/download/MIMB/.
Spécifications du pont
Fournisseur | Matillion |
Nom de l'outil | Matillion |
Version de l'outil | Current |
Site Web de l'outil | https://www.matillion.com/ |
Méthodologie supportée | [Intégration de données] Multimodèle, Data Store (Modèle de données physique), ETL/ELT (Data Stores sources et cibles, Lignage de transformation, Parsage d'expressions) via une API REST sur un fichier JSON |
Profiling de données | ![]() |
Collecte incrémentale | ![]() |
Collecte multi-modèle | ![]() |
Navigation dans le référentiel distant pour sélectionner un modèle | ![]() |
SPÉCIFICATIONS
Outil : Matillion/Matillion version courante via une API REST sur un fichier JSON
Consultez https://www.matillion.com/
Métadonnées : [Intégration de données] Multimodèle, Data Store, ETL/ELT (Modèle de données physique), (Data Stores sources et cibles, Lignage de transformation, Parsage d'expressions)
Composant : MatillionETL version 11.2.0
AVERTISSEMENT
Ce pont d'import nécessite un accès à Internet pour télécharger les bibliothèques tierces :
- comme https://repo.maven.apache.org/maven2/ pour télécharger les bibliothèques open source tierces,
- et plus de sites pour d'autres logiciels tiers, comme les pilotes JDBC spécifiques pour les bases de données.
Les bibliothèques tierces téléchargées sont stockées dans $HOME/data/download/MIMB/
- Si le protocole HTTPS échoue, le pont d'import essaye ensuite avec HTTP.
- Si un proxy est utilisé pour accéder à Internet, vous devez configurer ce proxy dans l'environnement JRE (voir l'option -java.parameters dans le paramètre Divers).
- Si le pont d'import n'a pas d'accès à Internet, le répertoire $HOME/data/download/MIMB/ peut être copié depuis un autre serveur qui a accès à Internet, où la commande $HOME/bin/MIMB.sh (ou .bat) -d peut être utilisée pour télécharger en une fois toutes les bibliothèques tierces utilisées par tous les ponts.
En exécutant ce pont d'import, vous reconnaissez être responsable des conditions d'utilisation et de toute autre faille de sécurité potentielle liées au téléchargement de ces bibliothèques logicielles tierces.
VUE D'ENSEMBLE
Matillion ETL est une plateforme native Cloud d'intégration de données (DI/ETL) conçue pour les équipes de données modernes utilisant des data warehouses Cloud. Elle fournit une interface intuitive et un environnement low-code pour concevoir, orchestrer et gérer des pipelines de données complexes. https://docs.matillion.com/metl/docs/0000001/ https://www.matillion.com/products/etl/
Matillion ETL supporte l'intégration native avec les plateformes Cloud comme Snowflake, Amazon Redshift et Delta Lake sur Databricks, offrant évolutivité, performances et fonctionnalités de niveau entreprise.
Matillion fournit une interface de conception ETL dans laquelle vous pouvez définir des jobs utilisés pour dériver du SQL pour exécution, avec les transactions SQL enregistrées lors de l'exécution. Le lignage du flux de données de la plupart des outils d'ETL conventionnels (comme PowerCenter ou Talend) est produit par génération d'un diagramme de lignage des données lors de l'exécution, émulant l'exécution de la conception d'origine avec les paramètres d'exécution réels. Matillion ETL est implémenté comme ELT, et le lignage est produit par le parsage du SQL généré. Le SQL généré se trouve dans l'interface de Matillion, en sélectionnant une étape de fin de Sortie de table (en rouge à droite) dans la conception, puis en sélectionnant l'onglet SQL (en bas, près de l'onglet Métadonnées) et en vous assurant de cocher la case Développer les références.
Ce pont nécessite des jobs Matillion qui fonctionnent et ont été exécutés au cours des sept derniers jours. Les logs d'exécution se trouvent dans l'interface de Matillion, dans le menu Projet > Historique des tâches. Notez que les jobs sont généralement exécutés de manière quotidienne sur cette période de sept jours. Le pont détecte les jobs similaires et les factorise pour éviter une duplication du lignage. Si un job a été modifié, assurez-vous de configurer un filtre adéquat, (par ex. en utilisant l'option Divers -task.history.started) afin d'éviter de récupérer le lignage d'anciennes versions.
Le pont utilise l'API REST Matillion ETL du serveur pour récupérer ce SQL et les logs d'exécution. Le pont parse ces artefacts afin de déterminer les connexions de données sources/cibles et le lignage de flux de données au niveau des colonnes entre les connexions de données. https://docs.matillion.com/metl/docs/9907241/.
PRÉREQUIS
- Prérequis à l'authentification Matillion ETL :
Nécessite un utilisateur interne avec des autorisations sur les API.
Assurez-vous d'avoir au moins l'un des rôles suivants :
-Role. API - Ce rôle attribue l'accès direct à l'API Matillion pour cette instance.
https://docs.matillion.com/metl/docs/8233018/#adding-users
-Group. Attribué à un groupe avec au moins le rôle Lecteur.
https://docs.matillion.com/metl/docs/2931106/
-Permission Set. L'utilisateur doit avoir les autorisations d'API adéquates attribuées manuellement via un ensemble personnalisé d'autorisations.
https://docs.matillion.com/metl/docs/2932106/
- Prérequis à l'API de métadonnées de Matillion ETL :
- Nécessite la version 1.54.7 ou supérieure de Matillion ETL ;
- Nécessite une instance de Matillion ETL avec le Mode Enterprise ;
- Nécessite Matillion ETL pour Snowflake, Delta Lake sur Databricks ou Amazon Redshift.
Pour plus d'informations, consultez : https://docs.matillion.com/metl/docs/9907241/
LIMITATIONS
Consultez les limitations générales connues actuellement sur MIMB Known Limitations
- Limitations de l'API de métadonnées de Matillion ETL :
Chaque jour, les métadonnées de lignage de plus de sept jours sont automatiquement supprimées du serveur Matillion ETL.
Par défaut, il n'est pas possible de récupérer plus de 30 000 enregistrements d'historique des tâches par environnement. Pour éviter d'atteindre cette limite, utilisez l'option Divers -task.history.started pour appliquer un filtre adapté.
- Limitations du pont :
Le pont Matillion ETL supporte actuellement les types de composants suivants :
- Exécution de Transformation (Transformation)
- Requête de base de données (Connecteur de chargement)
- Google BigQuery (Connecteur de chargement)
- Création de Table (DDL)
- Script SQL (DDL)
Paramètres du pont
Nom du paramètre | Description | Type | Valeurs | Défaut | Périmètre |
Host | Nom d'hôte ou adresse IP de votre instance Matillion ETL, incluant le protocole (par ex., http://127.0.0.1 ou https://votre-nomd'hôte). Cette adresse sera utilisée pour accéder à l'endpoint de métadonnées de l'API Matillion ETL. Valeurs d'exemple : https://desktop-88ak0 http://127.0.0.1 |
Chaîne de caractères | Obligatoire ? | ||
Username | Nom d'utilisateur utilisé pour vous authentifier à votre instance de Matillion ETL. Pour plus de détails, consultez les Prérequis du pont -> Prérequis de l'authentification à Matillion ETL. |
Chaîne de caractères | Éléments obligatoires | ||
Password | Mot de passe correspondant au nom d'utilisateur fourni. Cet identifiant sera utilisé pour authentifier les requêtes d'API vers votre instance de Matillion ETL. | MOT DE PASSE | Obligatoire ? | ||
Groups | Liste de noms de groupes séparés par un point-virgule dans votre instance de Matillion ETL. Seuls les jobs et les métadonnées associés aux groupes spécifiés seront inclus dans la sortie du pont. Valeurs d'exemple : default;finance;marketing |
REPOSITORY_SUBSET | |||
Projets | Liste de noms de projets séparés par un point-virgule, au sein des groupes Matillion spécifiés. Le pont va extraire les métadonnées de ces projets uniquement. Valeurs d'exemple : default/customers_staging;finance/orders_distribute;marketing/reviews_development |
REPOSITORY_SUBSET | |||
Environnements | Liste de noms d'environnements séparés par un point-virgule, au sein des projets sélectionnés. Le pont va utiliser ces environnements pour définir le périmètre d'extraction des métadonnées. Valeurs d'exemple : default/customers_staging/Dev;finance/orders_distribute/Production;marketing/reviews_development/QA |
REPOSITORY_SUBSET | Éléments obligatoires | ||
Miscellaneous | INTRODUCTION Spécifiez les options Divers, commençant par un tiret et suivies éventuellement par des paramètres, par exemple : -connection.cast MyDatabase1="MICROSOFT SQL SERVER" Certaines options peuvent être utilisées plusieurs fois, si applicable, par exemple : -connection.rename NewConnection1=OldConnection1 -connection.rename NewConnection2=OldConnection2; La liste d'options pouvant être une longue chaîne, il est possible de la charger à partir d'un fichier qui doit être situé dans ${MODEL_BRIDGE_HOME}\data\MIMB\parameters et avoir l'extension .txt. Dans ce cas, toutes les options doivent être définies au sein de ce fichier comme seule valeur de ce paramètre, par exemple ETL/Miscellaneous.txt OPTIONS DE L'ENVIRONNEMENT JAVA -java.memory <taille maximale de la mémoire Java> (anciennement -m) 1 Go par défaut sur un JRE de 64 bits ou tel que défini dans conf/conf.properties, par exemple -java.memory 8G -java.memory 8000M -java.parameters <options de ligne de commande de Java Runtime Environment> (anciennement -j) Cette option doit être la dernière dans le paramètre Divers car tout le texte après -java.parameters est passé tel quel à la JRE. Par ex. -java.parameters -Dname=value -Xms1G L'option suivante doit être définie lorsqu'un proxy est utilisé pour accéder à Internet (cela est essentiel pour accéder à https://repo.maven.apache.org/maven2/ et exceptionnellement à quelques autres sites d'outils) afin de télécharger les bibliothèques logicielles tierces nécessaires. Note : La majorité des proxys sont relatifs au chiffrement (HTTPS) du trafic extérieur (à l'entreprise) et à la confiance en le trafic intérieur pouvant accéder au proxy via HTTP. Dans ce cas, une requête HTTPS atteint le proxy via HTTP où le proxy la chiffre en HTTPS. -java.parameters -java.parameters -Dhttp.proxyHost=127.0.0.1 -Dhttp.proxyPort=3128 -Dhttp.proxyUser=user -Dhttp.proxyPassword=pass OPTIONS D'IMPORT DU MODÈLE -model.name <nom modèle> Écrase le nom du modèle, par ex. -model.name "My Model Name" -prescript <nom script> Cette option permet d'exécuter un script avant l'exécution du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -prescript "script.bat arg1 arg2" -postscript <nom script> Cette option permet d'exécuter un script après l'exécution réussie du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -postscript "script.bat arg1 arg2" -cache.clear Vide le cache avant l'import et va exécuter un import complet avec collecte incrémentale. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. -backup <répertoire> Permet d'enregistrer les métadonnées d'entrée à des fins de débogage. Le <répertoire> fourni doit être vide. -restore <répertoire> Spécifiez le <répertoire> de sauvegarde à restaurer. OPTIONS DES CONNEXIONS DE DONNÉES Les connexions de données sont produites par les ponts d'import, généralement à partir des outils ETL/DI et BI pour faire référence aux data stores sources et cibles qu'elles utilisent. Ces connexions de données sont ensuite utilisées par les outils de gestion des métadonnées pour connecter ces dernières (connexion des métadonnées) à leurs data stores réels (par exemple, bases de données, système de fichiers, etc.) afin de produire le lignage complet de flux de données et de l'analyse d'impact de bout en bout. Le nom des connexions de données doit être unique dans chaque modèle d'import. Les noms de connexion de données utilisés dans les outils de conception DI/BI sont utilisés quand cela est possible, sinon ils sont générés en étant courts mais significatifs, comme le nom de la base de données/du schéma, le chemin d'accès au système de fichiers ou l'URI (Uniform Resource Identifier). L'option suivante vous permet de manipuler les connexions. Ces options remplacent les options héritées -c, -cd et -cs. -connection.cast ConnectionName=ConnectionType Lance une connexion à une base de données générique (par exemple ODBC/JDBC) pour un type de base de données précis (par exemple ORACLE) pour une analyse SQL, par exemple -connection.cast "My Database"="MICROSOFT SQL SERVER". La liste des types de connexions aux data stores comprend : ACCESS APACHE CASSANDRA DB2/UDB DENODO GOOGLE BIGQUERY HIVE MYSQL NETEZZA ORACLE POSTGRESQL PRESTO REDSHIFT SALESFORCE SAP HANA SNOWFLAKE MICROSOFT SQL AZURE MICROSOFT SQL SERVER SYBASE SQL SERVER SYBASE AS ENTERPRISE TERADATA VECTORWISE HP VERTICA -connection.rename OldConnection=NewConnection Renomme une connexion existante, par exemple, par ex. -connection.rename OldConnectionName=NewConnectionName Plusieurs connexions de bases de données existantes peuvent être renommées et fusionnées en une nouvelle connexion de base de données, par exemple : -connection.rename MySchema1=MyDatabase -connection.rename MySchema2=MyDatabase -connection.split oldConnection.Schema1=newConnection Scinde une connexion de base de données en une ou plusieurs connexions de base de données. Une connexion de base de données peut être scindée en une connexion par schéma, par exemple : -connection.split MyDatabase Toutes les connexions de base de données peuvent être fractionnées en une connexion par schéma, par exemple : -connection.split * Une connexion de base de données peut être explicitement fractionnée en une nouvelle connexion de base de données en ajoutant un nom de schéma à une base de données, par exemple : -connection.split MyDatabase.schema1=MySchema1 -connection.map SourcePath=DestinationPath Mappe un chemin d'accès source à un chemin d'accès de destination. Cela est utile pour les connexions aux systèmes de fichiers lorsque différents chemins d'accès pointent vers le même objet (répertoire ou fichier). Sur Hadoop, un processus peut écrire dans un fichier CSV spécifié avec le chemin d'accès complet HDFS, tandis qu'un autre processus lit d'une table Hive implémentée (externe) par le même fichier spécifié à l'aide d'un chemin d'accès relatif avec un nom et une extension de fichier par défaut, par exemple : -connection.map /user1/folder=hdfs://host:8020/users/user1/folder/file.csv Sous Linux, il peut être fait référence à un répertoire (ou à un fichier) donné tel que /data par plusieurs liens symboliques tels que /users/john et /users/paul, par exemple : -connection.map /data=/users/John -connection.map /data=/users/paul Sous Windows, il peut être fait référence à un répertoire donné tel que C:\data par plusieurs lecteurs réseau tels que M: et N:, par exemple : -connection.map C:\data=M:\ -connection.map C:\data=N:\ -connection.casesensitive ConnectionName... Écrase les règles de rapprochement insensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple : -connection.casesensitive "My Database" -connection.caseinsensitive ConnectionName... Écrase les règles de rapprochement sensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple : -connection.caseinsensitive "My Database" -connection.level AggregationLevel Spécifie le niveau d'agrégation pour les connexions externes, par exemple -connection.level catalog Liste des valeurs supportées : server (serveur) catalog (catalogue) schema (schéma)(par défaut) OPTIONS MATILLION -task.history.started Date Filtre toutes les données d'entrée pour inclure uniquement les tâches ayant démarré après la date spécifiée, au format MM-dd-yyyy. (par ex. 06-18-2025) La valeur est convertie en millisecondes depuis l'Epoch Unix (UTC). |
Chaîne de caractères |
Mapping du pont
Les informations de mapping ne sont pas disponibles