Système de fichiers Kafka Confluent (Registre de schéma et d'API) - Import
Prérequis du pont
Ce pont :nécessite un accès à Internet vers https://repo.maven.apache.org/maven2/ et/ou d'autres sites d'outils permettant de télécharger des pilotes dans <TDC_HOME>/data/download/MIMB/.
Spécifications du pont
Fournisseur | Confluent |
Nom de l'outil | Système de fichiers Kafka |
Version de l'outil | Kafka 2.x |
Site Web de l'outil | http://kafka.apache.org/ |
Méthodologie supportée | [Système de fichiers] Multimodèle, Data Store (NoSQL/Hiérarchique, Modèle de données physique) via l'API Java |
Profiling de données | |
Collecte incrémentale | |
Collecte multi-modèle | |
Navigation dans le référentiel distant pour sélectionner un modèle |
SPÉCIFICATIONS
Outil : Confluent/Système de fichiers Kafka version de Kafka 2.x via une API Java
Consultez http://kafka.apache.org/
Métadonnées : [Système de fichiers] Multimodèle, Data Store (NoSQL/Hiérarchique, Modèle de données physique)
Composant : ApacheKafkaImport.Confluent version 11.2.0
AVERTISSEMENT
Ce pont requiert un accès à Internet pour télécharger les bibliothèques tierces :
- par exemple https://repo.maven.apache.org/maven2/ pour télécharger les bibliothèques tierces open source,
- et plus de sites pour d'autres logiciels tiers, comme les pilotes JDBC spécifiques pour les bases de données.
Les bibliothèques tierces téléchargées sont stockées dans $HOME/data/download/MIMB/
- Si le protocole HTTPS échoue, le pont d'import essaye ensuite avec HTTP.
- Si un proxy est utilisé pour accéder à Internet, vous devez configurer ce proxy dans l'environnement JRE (voir l'option -j dans le paramètre Divers).
- Si le pont d'import n'a pas d'accès à Internet, le répertoire $HOME/data/download/MIMB/ peut être copié depuis un autre serveur qui a accès à Internet, où la commande $HOME/bin/MIMB.sh (ou .bat) -d peut être utilisée pour télécharger en une fois toutes les bibliothèques tierces utilisées par tous les ponts.
En exécutant ce pont d'import, vous reconnaissez être responsable des conditions d'utilisation et de toute autre faille de sécurité potentielle liées au téléchargement de ces bibliothèques logicielles tierces.
VUE D'ENSEMBLE
L'utilisation première de Kafka est relative aux pipelines de données haute performance, de la file d'attente des messages à une plateforme de mise en flux d'événements. Dans ce cas, tous les topics sont exclusivement composés de fichiers Avro avec les métadonnées décrites dans un registre Kafka (Confluent).
Lorsque le paramètre "URL du registre du schéma" est spécifié, ce pont d'import récupère automatiquement les métadonnées de ce topic à partir du registre Kafka.
FOIRE AUX QUESTIONS
Q : Lorsque vous vous connectez à Kafka à l'aide de :
"PLAIN authentication (Authentification PLAIN)"
Spécifiez le chemin de configuration JAAS (JAAS configuration path) et laissez le paramètre "Kafka brokers principal name (Nom du principal des brokers Kafka)" vide.
"KERBEROS authentication (Authentification KERBEROS)"
Spécifiez les valeurs des deux paramètres.
"without authentication (sans authentification)"
Laissez ces deux paramètres vides.
Consultez la documentation des paramètres individuels pour plus d'informations.
Q : Comment corriger l'exception "Exception:No entry found for connection 2" au cours d'un import ?
R : La machine exécutant le pont n'est pas correctement configurée pour la résolution du nom du DataNode Kafka. Lorsque le pont invoque l'API Kafka pour demander au NameNode où se trouvent les données du message, le NameNode retourne le nom de l'hôte (et non une IP) de la machine du DataNode. Cependant, dans ce cas, le nom d'hôte ne peut être traduit en adresse IP à cause de problèmes de résolution du nom d'hôte sur cette machine. Pour une résolution, ajoutez une entrée au nom d'hôte de la machine du DataNode dans le fichier de configuration "hosts" du système.
LIMITATIONS
Consultez les limitations générales connues à l'adresse https://metaintegration.com/Products/MIMB/Help/#!Documents/mimbknownlimitations.html
Lorsque vous exécutez à la fois le cluster Kafka (serveur) en version 1.1.x et le pont d'import (client) sur un système Windows, l'import peut échouer avec une erreur d'expiration. La version 2.0.x de Kafka a résolu ce problème.
FICHIERS SUPPORTÉS
Définition de données/Schéma/Formats de fichiers de métadonnées (pas de données) :
- Fichiers à largeur fixe, généralement du mainframe (voir les détails ci-dessous)
- Fichiers COBOL COPYBOOK, généralement du mainframe (voir les détails ci-dessous)
- W3C XML XSD (Définition de schéma XML)
Formats de fichiers de données texte (découverte des métadonnées orientées échantillonnage) :
- Fichiers délimités (plats) comme CSV (voir les détails ci-dessous)
- Fichiers XML Open Office Excel .XSLX (voir les détails ci-dessous)
- Fichiers W3C XML (non définis à partir de XML XSD)
- Fichiers JSON (JavaScript Object Notation) (voir les détails ci-dessous)
Formats de fichiers de données binaires (incluant une définition de schéma comme un en-tête ou un pied de page) :
- Apache Avro (voir les détails ci-dessous)
- Apache Parquet (voir les détails ci-dessous)
- Apache ORC (voir les détails ci-dessous)
ainsi que les versions compressées des formats ci-dessus :
- ZIP (en tant que format de compression, pas en tant que format archive)
- BZIP
- GZIP
- LZ4
- Snappy (en tant que format standard Snappy, pas en tant que format Snappy natif de Hadoop)
FICHIERS DÉLIMITÉS
Ce pont détecte (rétro-ingénierie) les métadonnées à partir d'un fichier de données de type Fichier délimité (appelé aussi Fichier plat).
La détection de ce Fichier délimité ne se base pas sur les extensions de fichier (comme .CVS, .PSV) mais sur l'échantillonnage du contenu du fichier.
Le pont a la capacité de détecter une ligne d'en-tête et de l'utiliser pour créer un nom de champ, sinon des noms de champs génériques sont créés.
Le pont crée un échantillon contenant jusqu'à 100 lignes pour détecter automatiquement les séparateurs de champs, incluant par défaut :
', (virgule)', '; (point-virgule)', ': (deux-points)', '\t (espace)', '| (barre verticale)', '0x1 (ctrl + A)', 'BS (\u0008)'
Il est possible d'ajouter d'autres séparateurs lors du processus de détection automatique (incluant les caractères doubles). Consultez le paramètre Miscellaneous (Divers).
Pendant l'échantillonnage, le pont détecte également les types de données de fichier, tels que DATE, NUMBER, STRING.
FICHIERS À LARGEUR FIXE
Ce pont crée des métadonnées pour les fichiers de données de type Fichier à largeur fixe.
De telles métadonnées ne peuvent pas être détectées automatiquement (rétro-ingénierie) par l'échantillonnage des fichiers de données (p. ex. customers.dat ou même simplement "customers" sans extension).
C'est pourquoi ce pont importe un fichier "Fixed Width File Definition" qui doit contenir l'extension de format de fichier .fixed_width_file_definition
(par exemple, le fichier au format customers.dat.fixed_width_file_definition créera les métadonnées d'un fichier "file customers" dont les champs seront définis à l'intérieur)
Ceci est l'équivalent d'un DDL RDBMS pour les fichiers à largueur fixe. Avec une extension d'une telle longueur, ce fichier de définition de données peut coexister avec les fichiers de données réels dans chaque répertoire système de fichiers les contenant.
Le format de fichier "Fixed Width File Definition (Définition de fichier à largeur fixe)" est défini tel que suit :
- Le fichier doit commencer par l'en-tête suivant
nom de colonne, offset, largeur, type de données, commentaire
- Les offsets doivent tous être uniques et supérieurs ou égaux à 0.
a,0
b,4
- Le format du fichier est invalide lorsque certaines colonnes ont des offsets et d'autres n'en ont pas.
a,0
b,
c,4
- Lorsque toutes les colonnes n'ont pas d'offsets mais ont une largeur, l'application suppose que ces colonnes sont ordonnées et calcule les offsets en fonction des largeurs
a,,4 -> a,1,4
b,,25 -> b,5,25
- Lorsque l'offset est présent, l'application ignore les largeurs, car elles sont calculées depuis les offsets.
a,1,4
b,5,25
- Les types et commentaires sont utilisés comme documentation uniquement.
a,1,4,int
b,5,25,char[25],identifier
Ce pont détecte les types de données suivants : INTEGER, FLOAT, STRING, DATE, BOOLEAN.
FICHIERS COBOL COPYBOOK
Ce pont n'importe que les fichiers COBOL COPYBOOK (qui contiennent les définitions de données). Par conséquent, il ne détecte pas (rétro-ingénierie) les métadonnées des fichiers de données COBOL réels.
La détection de ce fichier COBOL COPYBOOK ne se base pas sur les extensions de fichier (comme .CPY) mais sur l'échantillonnage du contenu du fichier.
Ce pont crée un "Modèle hiérarchique physique" qui reflète une structure d'enregistrement, défini par sa position en nombre d'octets, vraiment plat, utile pour combiner les processus d'intégration de données/ETL. Ainsi, le modèle physique possède tous les éléments physiques nécessaires pour définir un enregistrement plat, qui consiste en UNE table contenant tous les éléments (comprenant plusieurs colonnes pour les éléments OCCURRENCES si le paramètre de pont approprié est configuré).
Notez qu'actuellement ce pont ne supporte pas le verbe COPY et rapporte une erreur de parsing pour la ligne et la position sur lesquelles l'instruction COPY commence. Afin d'importer des fichiers COPYBOOK ayant l'instruction Copy, créez un fichier COPYBOOK étendu avec les sections incluses déjà en place (remplaçant le verbe COPY). La plupart des compilateurs COBOL permettent d'écrire en sortie uniquement les fichiers COPYBOOK prétraités avec les instructions COPY et REPLACE étendues.
Foire aux questions :
Q : Pourquoi la colonne "6" (six) est-elle la colonne de début par défaut et la colonne "72" (soixante-douze), la colonne de fin ?
R : L'analyseur de pont compte les colonnes à partir de 0 (zéro), plutôt que 1 (un). De plus, le paramétrage par défaut laisse les six premières colonnes standards pour les numéros de lignes, la colonne suivante pour les indicateurs de commentaires et les 8 dernières (sur 80 au total) sont réservées à des informations sur les commentaires de lignes supplémentaires.
FICHIERS EXCEL (XLSX)
Ce pont détecte (rétro-ingénierie) les métadonnées à partir d'un fichier de données de format de type Excel XML (XLSX).
La détection de ces fichiers Excel est basée sur l'extension du fichier .XLSX.
Le pont a la capacité de détecter une ligne d'en-tête et de l'utiliser pour créer un nom de champ, sinon des noms de champs génériques sont créés.
Le pont effectue un échantillonnage jusqu'à 1 000 lignes pour détecter les types de données de fichier, tels que DATE, NUMBER, STRING.
Si un fichier Excel contient plusieurs feuilles, chacune d'entre elles est considérée lors de l'import comme l'équivalent d'un fichier/d'une table avec le même nom de feuille.
Ce pont utilise le système de fichiers local de la machine pour lire des fichiers. Il vous permet de spécifier le jeu de caractères utilisé par les fichiers d'encodage.
Ce pont importe uniquement l'aspect CSV d'Excel, mais ne supporte pas les aspects BI/Analyse d'Excel, comme les tableaux croisés dynamiques, les diagrammes, etc.
FICHIERS W3C XML
Ce pont d'import W3C XML est utilisé avec d'autres ponts d'import de fichiers (p. ex. CSV, XLSX, JSON, Avro, Parquet) par tous les ponts d'import de data lakes et de crawlers de fichiers (p. ex. systèmes de fichiers, Amazon S3, Hadoop HDFS).
L'objectif de cet import XML est d'effectuer une rétro-ingénierie sur un modèle/schéma à partir de son contenu, lorsque ce fichier XML n'a pas formellement été défini par un schéma XML (XSD ou DTD).
Ces fichiers XML sont communément téléchargés depuis des appareils IoT dans un data lake.
Toutefois, ces fichiers XML sont supposés être parfaitement compatibles avec W3C, particulièrement conformément à la déclaration de texte XML, aux entités parsées bien formées et à l'encodage des caractères des entités.
Pour plus d'informations concernant les normes W3C, consultez :
https://www.w3.org/TR/xml/#sec-TextDecl
Avertissement : vous devez utiliser le fichier XML dédié selon les ponts d'import pour tout autre besoin, tel que :
- autres ponts d'import W3C XML standard (p. ex. DTD, XSD, WSDL, OWL/RDL)
- outils spécifiques aux ponts d'import XML (p. ex. erwin Data Modeler XML, Informatica PowerCenter XML)
FICHIERS JSON
Ce pont importe des métadonnées à partir de fichiers JSON à l'aide de l'API Java.
Ce pont charge le fichier JSON dans sa globalité à l'aide d'un analyseur de flux. Il n'y donc pas de limite en termes de taille, mais le processus peut prendre du temps dans le cas d'un fichier JSON distant volumineux.
Ce pont extrait les métadonnées (structure hiérarchique JSON) et détecte les types de données JSON standards suivants :
tels que définis dans [https://www.json.org/
- Chaîne de caractères {"stringSample" : "some text", "stringDateSample" : "Thu Apr 06 2017 09:41:51 GMT+0300 (FLE Standard Time)", "expStringSample" : "2.99792458e8"}
- Nombre {"expNumberSample": 2.99792458E8, "numberSample": 3, "floatSample": 3.141592653589793}
- Tableau {"arraySample": [1,2,3]}
- Vrai {"booleanSample": true}
- Faux {"booleanSample": false}
- Null {"nullSample": null}
De plus, les types de données d'implémentation spécifique suivants sont supportés :
Extension MongoDB :
- Identifiant {"_id": {"$oid": "50a9c951300493f64fbffdb6"}}
- Date {"dateExample" : { "$date" : "2014-01-01T05:00:00.000Z"}}
- Date POSIX {"isoDateExample" : { "$date" : 1491461103897 }}
-Horodatage {"timestampExample" : { "$timestamp" : { "t" : 1412180887, "i" : 1 } }}
- Nombre {"numberLongExample": {"$numberLong": "7494814965"}}
Extension CouchDB :
- Identifiant {"_id":"someId","_rev":"1232343467"}
FICHIERS APACHE AVRO
Ce pont importe des métadonnées de fichiers Avro à l'aide d'une API Java.
Notez que ce pont n'effectue pas de découverte des métadonnées orientées données, mais lit plutôt la définition de schéma au niveau du pied de page (en bas) du fichier ORC.
Ce pont détecte les types de données Avro standards suivants :
https://avro.apache.org/docs/current/spec.html#schema_primitive
null - aucune valeur.
booléen - uen valeur binaire.
int - un entier signé 32 bits.
long - un entier signé 64 bits.
flottant - un nombre à virgule flottante simple précision (32 bits) IEEE 754.
double - un nombre à virgule flottante double précision (64 bits) IEEE 754.
octets - séquence d'octets non signés de 8 bits.
chaîne de caractères - séquence de caractères Unicode.
FICHIERS APACHE PARQUET
Ce pont importe des métadonnées à partir de fichiers Parquet à l'aide d'une API Java.
Notez que ce pont n'effectue pas de découverte des métadonnées orientées données, mais lit plutôt la définition de schéma au niveau du pied de page (en bas) du fichier Parquet. Aussi, ce pont a besoin de charger le fichier Parquet complet pour atteindre la définition de schéma située à la fin.
Si le fichier Parquet n'est pas compressé, la taille du fichier est illimitée, étant donné que le pont ignore automatiquement la portion de données jusqu'au pied de page (cela peut prendre du temps dans le cas de fichiers Parquet volumineux). Toutefois, si le fichier Parquet est compressé, alors le pont doit télécharger le fichier entier et commencer par le décompresser. Dans ce cas, la taille du fichier maximale par défaut est limitée à 10 Mo (les fichiers plus volumineux seront ignorés). Notez toutefois que cette limite peut être augmentée dans le paramètre Divers.
Ce pont détecte les types de données Parquet standards suivants :
comme défini dans https://parquet.apache.org/documentation/latest
BOOLÉEN : booléen 1 bit
INT32 : INT 32 bits signés
INT64 : INT 64 bits signés
INT96 : INT 96 bits signés
FLOAT : valeurs à virgule flottante IEEE 32 bits
DOUBLE : valeurs à virgule flottante IEEE 64 bits
BYTE_ARRAY : tableaux d'octets arbitrairement longs.
FICHIERS APACHE ORC
Ce pont importe des métadonnées à partir de fichiers ORC à l'aide d'une API Java.
Notez que ce pont n'effectue pas de découverte des métadonnées orientées données, mais lit plutôt la définition de schéma au niveau du pied de page (en bas) du fichier Parquet.
Ce pont détecte le type de données ORC standard suivant :
comme défini dans https://orc.apache.org/docs/types.html
Integer : booléen (1 bit), tinyint (8 bits), smallint (16 bits), int (32 bits), bigint (64 bits)
Virgule flottante : float, double
Types string : string, char, varchar
Blobs binaires : binary
Date/heure : timestamp (horodatage), timestamp with local time zone (horodatage avec fuseau horaire local), date
Types composés : struct, list, map, union
PLUS D'INFORMATIONS
Consultez les infobulles des paramètres individuels pour obtenir des exemples détaillés.
Paramètres du pont
Nom du paramètre | Description | Type | Valeurs | Défaut | Périmètre | ||
URL du registre du schéma | Liste d'URL pour les instances de Schema Registry séparées par une virgule, pouvant être utilisée pour rechercher des schémas. Consultez https://docs.confluent.io/current/schema-registry/connect.html#configuration-options pour plus d'informations. Si vous devez importer uniquement des métadonnées, vous devez spécifier l'URL du registre du schéma. Lorsque l'URL du registre du schéma est spécifiée, le pont importe des métadonnées concernant les topics et leurs schémas depuis le registre (sans impliquer le serveur de données Kafka) |
Chaîne de caractères | http://localhost:8081 | ||||
Topics | Liste des noms de topics, comme "topic1, topic2". Si la liste est vide, tous les topics sont disponibles. Vous pouvez spécifier le nom des topics en tant que modèle de caractère de remplacement : 'topic?' '*topic*' 'topic_?,*topic*' Si vous devez importer uniquement les métadonnées, spécifiez le paramètre Topics et laissez vides les autres paramètres de connexion à Kafka et de configuration de l'échantillonnage. |
REPOSITORY_SUBSET | |||||
Bootstrap servers | Liste de paires "host:port" à utiliser pour établir la connexion initiale au cluster Kafka et trouver les serveurs et topics disponibles, par exemple : 'host1:port1, host2:port2' La liste ne doit pas nécessairement inclure tous les serveurs disponibles mais doit en contenir au moins un. Il est recommandé d'inclure plusieurs serveurs, en cas d'indisponibilité de l'un d'eux. La première entrée de la liste sera utilisée comme nom de cluster. |
Chaîne de caractères | localhost:9092 | ||||
Nombre de messages d'exemple | Nombre maximal de messages d'exemple à échantillonner depuis les topics. Ces messages sont utilisés pour identifier les détails du format des topics, comme les noms de champs ou les types de données. | Chaîne de caractères | 1 000 | ||||
Utiliser le protocole SSL pour se connecter | Configurez ce paramètre à Vrai lorsque le consommateur Kafka utilise le protocole TLS/SSL pour chiffrer le trafic Kafka sur le réseau. Kafka utilise le protocole SSL pour chiffrer les connexions entre le serveur et les clients |
BOOLEAN |
|
false | |||
Fichier TrustStore | Emplacement du fichier TrustStore. S'il est vide, le pont d'import essaye de le trouver dans 'java.home'\lib\security\{'jssecacerts'|'cacerts'} |
Fichier | *.* | ||||
Mot de passe du TrustStore | Mot de passe du TrustStore. | MOT DE PASSE | |||||
Fichier Keystore | Emplacement du fichier Keystore. | Fichier | *.* | ||||
Mot de passe du Keystore | Mot de passe du Keystore. | MOT DE PASSE | |||||
Mot de passe pour la clé | Mot de passe pour la clé. | MOT DE PASSE | |||||
Chemin de configuration JAAS | Saisissez la partie primaire du Principal Kerberos défini pour les brokers lorsque vous créez le cluster du broker. Par exemple, dans ce Principal 'kafka/kafka1.hostname.com@EXAMPLE.COM', seul le préfixe est requis pour ce champ, "kafka". Cette valeur est alimentée sous la propriété Kafka : sasl.kerberos.service.name=value |
Fichier | *.* | ||||
Nom du Principal des brokers Kafka | Saisissez la partie primaire du Principal Kerberos défini pour les brokers lorsque vous créez le cluster du broker. Par exemple, dans ce Principal 'kafka/kafka1.hostname.com@EXAMPLE.COM', seul le préfixe est requis pour ce champ, "kafka". Cette valeur est alimentée sous la propriété Kafka : sasl.kerberos.service.name=value |
Chaîne de caractères | |||||
Chemin de commande Kinit | Kerberos utilise un chemin par défaut vers son Kinit exécutable. Si vous avez modifié ce chemin, saisissez votre chemin d'accès personnalisé. Valeur de la propriété Kafka - sasl.kerberos.kinit.cmd=value |
Chaîne de caractères | |||||
Chemin de configuration Kerberos | Kerberos utilise un chemin par défaut vers son fichier de configuration, le fichier krb5.conf (ou krb5.ini sous Windows) pour Kerberos 5 par exemple. Si vous laissez ce paramètre non renseigné, une méthodologie donnée est appliquée par Kerberos pour tenter de trouver les informations de configuration nécessaires. Pour plus d'informations concernant cette méthodologie, consultez la section Trouver le fichier de configuration krb5.conf dans les prérequis Kerberos. Cette valeur s'applique à la JVM - '-Djava.security.krb5.conf=value' |
Fichier | *.* | ||||
Miscellaneous | INTRODUCTION Spécifiez les options Divers, commençant par un tiret et suivies éventuellement par des paramètres, par exemple : -connection.cast MyDatabase1="MICROSOFT SQL SERVER" Certaines options peuvent être utilisées plusieurs fois, si applicable, par exemple : -connection.rename NewConnection1=OldConnection1 -connection.rename NewConnection2=OldConnection2; La liste d'options pouvant être une longue chaîne, il est possible de la charger à partir d'un fichier qui doit être situé dans ${MODEL_BRIDGE_HOME}\data\MIMB\parameters et avoir l'extension .txt. Dans ce cas, toutes les options doivent être définies au sein de ce fichier comme seule valeur de ce paramètre, par exemple ETL/Miscellaneous.txt OPTIONS DE L'ENVIRONNEMENT JAVA -java.memory <taille maximale de la mémoire Java> (anciennement -m) 1 Go par défaut sur un JRE de 64 bits ou tel que défini dans conf/conf.properties, par exemple -java.memory 8G -java.memory 8000M -java.parameters <options de ligne de commande de Java Runtime Environment> (anciennement -j) Cette option doit être la dernière dans le paramètre Divers car tout le texte après -java.parameters est passé tel quel à la JRE. Par ex. -java.parameters -Dname=value -Xms1G L'option suivante doit être définie lorsqu'un proxy est utilisé pour accéder à Internet (cela est essentiel pour accéder à https://repo.maven.apache.org/maven2/ et exceptionnellement à quelques autres sites d'outils) afin de télécharger les bibliothèques logicielles tierces nécessaires. Note : La majorité des proxys sont relatifs au chiffrement (HTTPS) du trafic extérieur (à l'entreprise) et à la confiance en le trafic intérieur pouvant accéder au proxy via HTTP. Dans ce cas, une requête HTTPS atteint le proxy via HTTP où le proxy la chiffre en HTTPS. -java.parameters -java.parameters -Dhttp.proxyHost=127.0.0.1 -Dhttp.proxyPort=3128 -Dhttp.proxyUser=user -Dhttp.proxyPassword=pass OPTIONS D'IMPORT DU MODÈLE -model.name <nom modèle> Écrase le nom du modèle, par ex. -model.name "My Model Name" -prescript <nom script> Cette option permet d'exécuter un script avant l'exécution du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -prescript "script.bat arg1 arg2" -postscript <nom script> Cette option permet d'exécuter un script après l'exécution réussie du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -postscript "script.bat arg1 arg2" -cache.clear Vide le cache avant l'import et va exécuter un import complet avec collecte incrémentale. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. -backup <répertoire> Permet d'enregistrer les métadonnées d'entrée à des fins de débogage. Le <répertoire> fourni doit être vide. -restore <répertoire> Spécifiez le <répertoire> de sauvegarde à restaurer. OPTIONS DES CONNEXIONS DE DONNÉES Les connexions de données sont produites par les ponts d'import, généralement à partir des outils ETL/DI et BI pour faire référence aux data stores sources et cibles qu'elles utilisent. Ces connexions de données sont ensuite utilisées par les outils de gestion des métadonnées pour connecter ces dernières (connexion des métadonnées) à leurs data stores réels (par exemple, bases de données, système de fichiers, etc.) afin de produire le lignage complet de flux de données et de l'analyse d'impact de bout en bout. Le nom des connexions de données doit être unique dans chaque modèle d'import. Les noms de connexion de données utilisés dans les outils de conception DI/BI sont utilisés quand cela est possible, sinon ils sont générés en étant courts mais significatifs, comme le nom de la base de données/du schéma, le chemin d'accès au système de fichiers ou l'URI (Uniform Resource Identifier). L'option suivante vous permet de manipuler les connexions. Ces options remplacent les options héritées -c, -cd et -cs. -connection.cast ConnectionName=ConnectionType Lance une connexion à une base de données générique (par exemple ODBC/JDBC) pour un type de base de données précis (par exemple ORACLE) pour une analyse SQL, par exemple -connection.cast "My Database"="MICROSOFT SQL SERVER". La liste des types de connexions aux data stores comprend : ACCESS APACHE CASSANDRA DB2/UDB DENODO GOOGLE BIGQUERY HIVE MYSQL NETEZZA ORACLE POSTGRESQL PRESTO REDSHIFT SALESFORCE SAP HANA SNOWFLAKE MICROSOFT SQL AZURE MICROSOFT SQL SERVER SYBASE SQL SERVER SYBASE AS ENTERPRISE TERADATA VECTORWISE HP VERTICA -connection.rename OldConnection=NewConnection Renomme une connexion existante, par exemple, par ex. -connection.rename OldConnectionName=NewConnectionName Plusieurs connexions de bases de données existantes peuvent être renommées et fusionnées en une nouvelle connexion de base de données, par exemple : -connection.rename MySchema1=MyDatabase -connection.rename MySchema2=MyDatabase -connection.split oldConnection.Schema1=newConnection Scinde une connexion de base de données en une ou plusieurs connexions de base de données. Une connexion de base de données peut être scindée en une connexion par schéma, par exemple : -connection.split MyDatabase Toutes les connexions de base de données peuvent être fractionnées en une connexion par schéma, par exemple : -connection.split * Une connexion de base de données peut être explicitement fractionnée en une nouvelle connexion de base de données en ajoutant un nom de schéma à une base de données, par exemple : -connection.split MyDatabase.schema1=MySchema1 -connection.map SourcePath=DestinationPath Mappe un chemin d'accès source à un chemin d'accès de destination. Cela est utile pour les connexions aux systèmes de fichiers lorsque différents chemins d'accès pointent vers le même objet (répertoire ou fichier). Sur Hadoop, un processus peut écrire dans un fichier CSV spécifié avec le chemin d'accès complet HDFS, tandis qu'un autre processus lit d'une table Hive implémentée (externe) par le même fichier spécifié à l'aide d'un chemin d'accès relatif avec un nom et une extension de fichier par défaut, par exemple : -connection.map /user1/folder=hdfs://host:8020/users/user1/folder/file.csv Sous Linux, il peut être fait référence à un répertoire (ou à un fichier) donné tel que /data par plusieurs liens symboliques tels que /users/john et /users/paul, par exemple : -connection.map /data=/users/John -connection.map /data=/users/paul Sous Windows, il peut être fait référence à un répertoire donné tel que C:\data par plusieurs lecteurs réseau tels que M: et N:, par exemple : -connection.map C:\data=M:\ -connection.map C:\data=N:\ -connection.casesensitive ConnectionName... Écrase les règles de rapprochement insensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple : -connection.casesensitive "My Database" -connection.caseinsensitive ConnectionName... Écrase les règles de rapprochement sensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple : -connection.caseinsensitive "My Database" -connection.level AggregationLevel Spécifie le niveau d'agrégation pour les connexions externes, par exemple -connection.level catalog Liste des valeurs supportées : server (serveur) catalog (catalogue) schema (schéma)(par défaut) OPTIONS API KAFKA -kafka.api.version Lorsque ce paramètre est spécifié, cette version de l'API sera utilisée pour effectuer l'import des échantillons de données depuis les serveurs Kafka. Si ce paramètre n'est pas spécifié, le pont tente de détecter automatiquement une version convenable de l'API Kafka. Si la détection échoue, la version par défaut "2.2.0" est utilisée. -consumer.group Une chaîne de caractères identifiant uniquement le groupe de processus consommateurs auquel ce consommateur appartient. En configurant l'ID du même groupe, plusieurs processus indiquent qu'ils font tous partie du même groupe consommateur. Cette valeur sera passée dans la propriété Kafka "group.ID". MÉTHODES D'IMPORT -import.from.data Lorsque vous utilisez un serveur Kafka pour héberger des Topics ne référençant pas le registre du schéma et des Topics le référençant, cela force le pontd 'import à crawler un data lake implémenté sur Apache Kafka pour suivre la route empruntée par les données et utiliser le registre de schéma uniquement lorsqu'un Topic le référence. Cela comprend la découverte des métadonnées orientées échantillonnage de la structure des données (par ex. une table CSV, une hiérarchie JSON, des fichiers Avro ou Parquet) et des types de données (par ex. Integer, Date, String). Cependant, dans Kafka, les fichiers sont organisés en topics et non en partitions. Le paramètre "Bootstrap servers (Amorcer les serveurs)" doit être spécifié pour utiliser cette méthode d'import. |
Chaîne de caractères |
Mapping du pont
Les informations de mapping ne sont pas disponibles