Data Store d'extraits de Tableau Server (Hyper) - Import
Prérequis du pont
Ce pont :nécessite un accès à Internet vers https://repo.maven.apache.org/maven2/ et/ou d'autres sites d'outils permettant de télécharger des pilotes dans <TDC_HOME>/data/download/MIMB/.
Spécifications du pont
Fournisseur | Tableau |
Nom de l'outil | Tableau Server et Cloud |
Version de l'outil | 8.x à 2023.x |
Site Web de l'outil | https://help.tableau.com/current/pro/desktop/fr-fr/extracting_data.htm (uniquement en anglais) |
Méthodologie supportée | [Base de données relationnelle] Multimodèle, Data Store (Modèle de données physique), (Parsage d'expressions), Rapport BI (Source relationnelle) via une API Java sur un fichier HYPER (prév. TDE) |
Profiling de données | |
Collecte incrémentale | |
Collecte multi-modèle | |
Navigation dans le référentiel distant pour sélectionner un modèle |
SPÉCIFICATIONS
Outil : Tableau/Tableau Server et Cloud version 8.x à 2023.x via une API Java sur un fichier HYPER (préc. TDE)
Consultez https://help.tableau.com/current/pro/desktop/fr-fr/extracting_data.htm
Métadonnées : [Base de données relationnelle] Multimodèle, Data Store (Modèle de données physique), (Parsage d'expressions), Rapport BI (Source relationnelle)
Composant : TableauExtract version 11.2.0
AVERTISSEMENT
Ce pont d'import requiert un accès à Internet pour télécharger les bibliothèques tierces :
- par exemple https://repo.maven.apache.org/maven2/ pour télécharger les bibliothèques tierces open source,
- et plus de sites pour d'autres logiciels tiers, comme les pilotes JDBC spécifiques pour les bases de données.
Les bibliothèques tierces téléchargées sont stockées dans $HOME/data/download/MIMB/
- Si le protocole HTTPS échoue, le pont d'import essaye ensuite avec HTTP.
- Si un proxy est utilisé pour accéder à Internet, vous devez configurer ce proxy dans l'environnement JRE (voir l'option -j dans le paramètre Divers).
- Si le pont d'import n'a pas d'accès à Internet, le répertoire $HOME/data/download/MIMB/ peut être copié depuis un autre serveur qui a accès à Internet, où la commande $HOME/bin/MIMB.sh (ou .bat) -d peut être utilisée pour télécharger en une fois toutes les bibliothèques tierces utilisées par tous les ponts.
En exécutant ce pont d'import, vous reconnaissez être responsable des conditions d'utilisation et de toute autre faille de sécurité potentielle liées au téléchargement de ces bibliothèques logicielles tierces.
VUE D'ENSEMBLE
Ce pont d'import importe des fichiers d'extraits de données de serveur Tableau (.hyper) en tant que data stores.
PRÉREQUIS
Ce pont d'import a besoin d'une connectivité au réseau vers le serveur Tableau, ce qui peut nécessiter un SSL de réseau ou la configuration d'un proxy (voir le paramètre "Serveur" pour plus d'informations). Aussi, le serveur Tableau doit être accessible avec la même configuration sur un navigateur Web que celle de la machine sur laquelle le pont d'import est en cours d'exécution.
L'utilisateur doit avoir les droits appropriés (voir le paramètre Utilisateur pour plus d'informations).
Ce pont d'import utilise la connectivité HTTP(S) vers le serveur Tableau, ainsi que vers l'API Tableau Hyper.
Pour plus d'informations concernant l'installation et la configuration de l'API Tableau Hyper, consultez https://help.tableau.com/current/api/hyper_api/en-us/index.html.
Lorsque le pont d'import Tableau Server Extract (Hyper) Data Store est utilisé pour extraire les data stores depuis un serveur Tableau en tant que modèle indépendant,
le pont d'import Tableau Server (référentiel) doit être utilisé avec le paramètre "Extraire les sources de données" configuré à Import externe",
pour autoriser la résolution de connexion de flux de données (stitching) depuis l'extrait Tableau à leur usage dans les Workbooks Tableau".
FOIRE AUX QUESTIONS
n/a
LIMITATIONS
Consultez les limitations générales connues à l'adresse MIMB Known Limitations ou dans Documentation/ReadMe/MIMBKnownLimitations.html où elles sont regroupées
Ce pont d'import ne supporte pas la connexion via SAML.
SUPPORT
Fournissez un package de dépannage avec :
- le log de débogage (peut être défini dans l'UI ou dans conf/conf.properties avec MIR_LOG_LEVEL=6)
- la sauvegarde des métadonnées si disponible (peut être configurée dans le paramètre Divers avec l'option -backup, même si cette option commune n'est pas implémentée pour tous les ponts pour des raisons techniques).
Le dépannage d'une sauvegarde Tableau peut être automatiquement généré à l'aide de l'option -backup du paramètre Divers.
Sinon, une sauvegarde de serveur Tableau (.tsbak) peut être générée manuellement comme suit :
1- Démarrez une invite de commande en tant qu'administrateur.
2- Parcourez le système jusqu'au répertoire où le serveur Tableau a été installé :
"C:\Program Files\Tableau\Tableau Server\7.0\bin" (32 bits)
"C:\Program Files (x86)\Tableau\Tableau Server\7.0\bin" (64 bits)
3- Saisissez la commande suivante :
tabadmin backup tabserv --stop-server -d -t C:\temp\tableau
- 'tabserv' - backup file name;
- 'C:\temp\tableau' - chemin d'accès au répertoire dans lequel enregistrer la sauvegarde.
Le serveur Tableau peut rester en ligne tout au long de la sauvegarde si le paramètre "--stop-server" est remplacé par "--unsafe".
Paramètres du pont
Nom du paramètre | Description | Type | Valeurs | Défaut | Périmètre |
Serveur | URL de Tableau Server (http://localhost:80 par défaut) ou adresse IP (par ex. 192.168.0.2) Si le protocole SSL est utilisé, l'URL doit commencer par HTTPS (et éventuellement finir avec un port personnalisé si le port par défaut de SSL 443 n'est pas utilisé). |
Chaîne de caractères | http://localhost:80 | Éléments obligatoires | |
Site | Le site Tableau n'est requis que pour la connexion à un serveur Tableau en ligne avec divers sites installés. La valeur est sensible à la casse et ne doit pas contenir d'espace, étant donné qu'elle est utilisée dans l'URL pour se connecter à Tableau. |
Chaîne de caractères | |||
User Name | Nom d'utilisateur Tableau utilisé par ce pont. L'utilisateur doit disposer de ses propres droits d'accès pour lire toutes les métadonnées. Il est recommandé d'essayer d'abord en tant qu'administrateur (tous les ponts sont garantis pour être en lecture seule et n'extraient que des métadonnées) et, si possible, sur un sous-ensemble de métadonnées. Si cette tentative réussit, l'utilisateur ayant uniquement les droits d'accès nécessaires peut être utilisé. Le compte d'utilisateur doit avoir la licence "Interactor" (renommée "Explorer" dans les dernières versions) sur le serveur Tableau et doit disposer des droits "Vue" et "Téléchargement" pour tous les classeurs, projets et toutes les sources de données qu'il ou elle est sur le point d'importer. Il est toutefois préférable d'utiliser un compte dont le rôle est "Administrateur de site". Vous pouvez également utiliser personalAccessTokenName à la place du nom d'utilisateur si le type PAT de l'authentification est requis. |
Chaîne de caractères | Éléments obligatoires | ||
Password | Mot de passe de l'utilisateur de Tableau. Vous pouvez également utiliser personalAccessTokenSecret à la place du mot de passe si le type PAT de l'authentification est requis. |
MOT DE PASSE | Éléments obligatoires | ||
Objets du référentiel | Sous-ensemble d'objets du référentiel (classeurs, sources de données) à importer. Pour les classeurs sélectionnés, toute source de données dépendante sera également incluse dans l'import. Le pont peut chercher un objet par son chemin s'il est saisi manuellement. Le caractère "barre oblique" (/) est utilisé comme séparateur de chemins et le caractère "barre oblique inversée" (\) est utilisé comme caractère d'échappement si le nom d'un objet contient le caractère "/". |
REPOSITORY_SUBSET | |||
Chemin d'accès à la bibliothèque de l'API Tableau Hyper | La bibliothèque de l'API Tableau Hyper est requise pour lire les métadonnées depuis des fichiers Tableau Data Extract (.hyper). Diverses versions de l'API Tableau Hyper sont disponibles dans Tableau, pour les différents systèmes d'exploitation et les différentes architectures de processeur. Veillez à utiliser la distribution SDK correspondant à votre environnement. Pour les téléchargements, les prérequis ou d'autres informations, consultez la page : https://help.tableau.com/current/api/hyper_api/en-us/index.html |
RÉPERTOIRE | Éléments obligatoires | ||
Threads multiples | Nombre de threads workers pour la collecte asynchrone des métadonnées. - Laissez ce paramètre vide si vous souhaitez que le pont d'import calcule la valeur, entre 1 et 6, en se basant sur l'architecture de la JVM et le nombre de cœurs du processeur disponibles. - Spécifiez une valeur numérique supérieure ou égale à 1 pour indiquer le nombre réel de threads. Si la valeur spécifiée n'est pas valide, un avertissement sera émis et cette valeur sera remplacée par 1. Si vous manquez de mémoire lors de la collecte asynchrone, réessayez avec un nombre plus petit. Si votre machine dispose de beaucoup de mémoire (par exemple 10 Go ou plus), vous pouvez essayer avec un plus grand nombre pour la collecte simultanée de nombreux documents. Notez que la définition d'un nombre trop important peut engendrer une diminution des performances en raison d'un conflit des ressources. |
NUMERIC | |||
Miscellaneous | INTRODUCTION Spécifiez les options Divers, commençant par un tiret et suivies éventuellement par des paramètres, par exemple : -connection.cast MyDatabase1="MICROSOFT SQL SERVER" Certaines options peuvent être utilisées plusieurs fois, si applicable, par exemple : -connection.rename NewConnection1=OldConnection1 -connection.rename NewConnection2=OldConnection2; La liste d'options pouvant être une longue chaîne, il est possible de la charger à partir d'un fichier qui doit être situé dans ${MODEL_BRIDGE_HOME}\data\MIMB\parameters et avoir l'extension .txt. Dans ce cas, toutes les options doivent être définies au sein de ce fichier comme seule valeur de ce paramètre, par exemple ETL/Miscellaneous.txt OPTIONS DE L'ENVIRONNEMENT JAVA -java.memory <taille maximale de la mémoire Java> (anciennement -m) 1 Go par défaut sur un JRE de 64 bits ou tel que défini dans conf/conf.properties, par exemple -java.memory 8G -java.memory 8000M -java.parameters <options de ligne de commande de Java Runtime Environment> (anciennement -j) Cette option doit être la dernière dans le paramètre Divers car tout le texte après -java.parameters est passé tel quel à la JRE. Par ex. -java.parameters -Dname=value -Xms1G L'option suivante doit être définie lorsqu'un proxy est utilisé pour accéder à Internet (cela est essentiel pour accéder à https://repo.maven.apache.org/maven2/ et exceptionnellement à quelques autres sites d'outils) afin de télécharger les bibliothèques logicielles tierces nécessaires. Note : La majorité des proxys sont relatifs au chiffrement (HTTPS) du trafic extérieur (à l'entreprise) et à la confiance en le trafic intérieur pouvant accéder au proxy via HTTP. Dans ce cas, une requête HTTPS atteint le proxy via HTTP où le proxy la chiffre en HTTPS. -java.parameters -java.parameters -Dhttp.proxyHost=127.0.0.1 -Dhttp.proxyPort=3128 -Dhttp.proxyUser=user -Dhttp.proxyPassword=pass OPTIONS D'IMPORT DU MODÈLE -model.name <nom modèle> Écrase le nom du modèle, par ex. -model.name "My Model Name" -prescript <nom script> Cette option permet d'exécuter un script avant l'exécution du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -prescript "script.bat arg1 arg2" -postscript <nom script> Cette option permet d'exécuter un script après l'exécution réussie du pont. Le script doit se situer dans le répertoire bin (ou comme spécifié dans M_SCRIPT_PATH dans conf/conf.properties) et avoir une extension .bat ou .sh. Le chemin d'accès au script ne doit pas inclure de symbole relatif au répertoire parent (..). Le script doit retourner le code de sortie 0 pour indiquer un succès ou une autre valeur pour indiquer un échec. Par exemple : -postscript "script.bat arg1 arg2" -cache.clear Vide le cache avant l'import et va exécuter un import complet avec collecte incrémentale. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. Si le modèle n'a pas été modifié et que le paramètre -cache.clear n'est pas utilisé (collecte incrémentale), une nouvelle version ne sera pas créée. -backup <répertoire> Cette option permet de sauvegarder les métadonnées d'entrée du pont à des fins de débogage. Le <répertoire> fourni doit être vide. L'utilisation principale de cette option concerne les ponts d'import des data stores, en particulier les ponts d'import basés sur des bases de données JDBC. Notez que cette option n'est pas opérationnelle sur certains ponts, notamment : - les ponts d'import basés sur des fichiers (car des fichiers d'entrée peuvent être utilisés à la place) - les ponts d'import de référentiels d'intégration de données/BI (car les outils natifs de sauvegarde du référentiel peuvent être utilisés à la place) - Certains ponts d'import basés sur des API (par ex. basés sur COM) pour des raisons techniques. OPTIONS DES CONNEXIONS DE DONNÉES Les connexions de données sont produites par les ponts d'import, généralement à partir des outils ETL/DI et BI pour faire référence aux data stores sources et cibles qu'elles utilisent. Ces connexions de données sont ensuite utilisées par les outils de gestion des métadonnées pour connecter ces dernières (connexion des métadonnées) à leurs data stores réels (par exemple, bases de données, système de fichiers, etc.) afin de produire le lignage complet de flux de données et de l'analyse d'impact de bout en bout. Le nom des connexions de données doit être unique dans chaque modèle d'import. Les noms de connexion de données utilisés dans les outils de conception DI/BI sont utilisés quand cela est possible, sinon ils sont générés en étant courts mais significatifs, comme le nom de la base de données/du schéma, le chemin d'accès au système de fichiers ou l'URI (Uniform Resource Identifier). L'option suivante vous permet de manipuler les connexions. Ces options remplacent les options héritées -c, -cd et -cs. -connection.cast ConnectionName=ConnectionType Lance une connexion à une base de données générique (par exemple ODBC/JDBC) pour un type de base de données précis (par exemple ORACLE) pour une analyse SQL, par exemple -connection.cast "My Database"="MICROSOFT SQL SERVER". La liste des types de connexions aux data stores comprend : ACCESS APACHE CASSANDRA DB2/UDB DENODO GOOGLE BIGQUERY HIVE MYSQL NETEZZA ORACLE POSTGRESQL PRESTO REDSHIFT SALESFORCE SAP HANA SNOWFLAKE MICROSOFT SQL AZURE MICROSOFT SQL SERVER SYBASE SQL SERVER SYBASE AS ENTERPRISE TERADATA VECTORWISE HP VERTICA -connection.rename OldConnection=NewConnection Renomme une connexion existante, par exemple, par ex. -connection.rename OldConnectionName=NewConnectionName Plusieurs connexions de bases de données existantes peuvent être renommées et fusionnées en une nouvelle connexion de base de données, par exemple : -connection.rename MySchema1=MyDatabase -connection.rename MySchema2=MyDatabase -connection.split oldConnection.Schema1=newConnection Scinde une connexion de base de données en une ou plusieurs connexions de base de données. Une connexion de base de données peut être scindée en une connexion par schéma, par exemple : -connection.split MyDatabase Toutes les connexions de base de données peuvent être fractionnées en une connexion par schéma, par exemple : -connection.split * Une connexion de base de données peut être explicitement fractionnée en une nouvelle connexion de base de données en ajoutant un nom de schéma à une base de données, par exemple : -connection.split MyDatabase.schema1=MySchema1 -connection.map SourcePath=DestinationPath Mappe un chemin d'accès source à un chemin d'accès de destination. Cela est utile pour les connexions aux systèmes de fichiers lorsque différents chemins d'accès pointent vers le même objet (répertoire ou fichier). Sur Hadoop, un processus peut écrire dans un fichier CSV spécifié avec le chemin d'accès complet HDFS, tandis qu'un autre processus lit d'une table Hive implémentée (externe) par le même fichier spécifié à l'aide d'un chemin d'accès relatif avec un nom et une extension de fichier par défaut, par exemple : -connection.map /user1/folder=hdfs://host:8020/users/user1/folder/file.csv Sous Linux, il peut être fait référence à un répertoire (ou à un fichier) donné tel que /data par plusieurs liens symboliques tels que /users/john et /users/paul, par exemple : -connection.map /data=/users/John -connection.map /data=/users/paul Sous Windows, il peut être fait référence à un répertoire donné tel que C:\data par plusieurs lecteurs réseau tels que M: et N:, par exemple : -connection.map C:\data=M:\ -connection.map C:\data=N:\ -connection.casesensitive ConnectionName Écrase les règles de rapprochement insensibles à la casse par défaut pour les identifiants d'objets dans la connexion spécifiée, si le type du data store détecté supporte cette configuration (par ex. Microsoft SQL Server, MySQL etc.), par exemple : -connection.casesensitive "My Database" -connection.level AggregationLevel Spécifie le niveau d'agrégation pour les connexions externes, par exemple -connection.level catalog Liste des valeurs supportées : server (serveur) catalog (catalogue) schema (schéma)(par défaut) |
Chaîne de caractères |
Mapping du pont
Les informations de mapping ne sont pas disponibles