Limitations connues de Dynamic Engine
- Chaque cluster Kubernetes ne peut avoir qu'un Dynamic Engine par conception. Un Dynamic Engine fournit les services d'infrastructure principaux pour les exécutions de tâches et de plans.
- Il n'y aucun mécanisme empêchant le déploiement de plus d'un Dynamic Engine par cluster Kubernetes. Cela peut causer des problèmes inattendus de connectivité et de performances pour Talend Management Console, les Dynamic Engines et les environnements de Dynamic Engines.
- Vous devez utiliser les fichiers de déploiement générés par Talend Management Console afin de déployer des Dynamic Engines et des environnements de Dynamic Engines. Les fichiers de déploiement personnalisés ne sont pas supportés.
- Le cluster Kubernetes dans lequel Dynamic Engine est déployé doit avoir un accès à un réseau Internet public.
- Les fonctionnalités suivantes d'exécution de tâches pour les Jobs d'intégration de données ne sont pas supportées :
- Débogage distant d'un Job d'intégration de données sur des Dynamic Engines
- Utilisation de différents comptes utilisateur·trices (impersonation)
- Le composant tSystem n'est pas supporté.
Limitations du stockage local dans les environnements de Dynamic Engine
Vous pouvez utiliser des composants du système de fichiers local (comme le tFileInputDelimited et le tFileOutputDelimited) pour un accès temporaire aux données au sein d'un Job. Cependant, ces composants ne peuvent être utilisés pour un stockage persistant ou à travers différents Jobs, à cause de la nature temporaire des conteneurs Kubernetes utilisés dans les environnements de Dynamic Engine. Les données des conteneurs sont détruites après la fin de la tâche.
En conséquence, les composants de stockage Cloud, comme S3 ou Azure sont essentiels à la gestion de données dans les environnements de Dynamic Engine. Ils se connectent aux solutions de stockage S3 ou Azure pour transférer des données d'un stockage externe à des conteneurs d'exécution, fournissant un stockage persistant et permettant le partage de données entre les différents Jobs.
- Composants Amazon S3
- Azure Data Lake Storage Gen2
- Azure Storage Blob
- Azure Storage Queue
- Azure Storage Table