Limitations connues de Dynamic Engine
- Dynamic Engine supporte uniquement les tâches de Jobs d'intégration de données et Big Data. Les Routes et les Jobs de services de données ne sont pas supportés.
- Chaque cluster Kubernetes ne peut avoir qu'un Dynamic Engine par conception. Un Dynamic Engine fournit les services d'infrastructure principaux pour les exécutions de tâches et de plans.
- Il n'y aucun mécanisme empêchant le déploiement de plus d'un Dynamic Engine par cluster Kubernetes. Cela peut causer des problèmes inattendus de connectivité et de performances pour Talend Management Console, les Dynamic Engines et les environnements de Dynamic Engines.
- Vous devez utiliser les fichiers de déploiement générés par Talend Management Console afin de déployer des Dynamic Engines et des environnements de Dynamic Engines. Les fichiers de déploiement personnalisés ne sont pas supportés.
- Le cluster Kubernetes dans lequel Dynamic Engine est déployé doit avoir un accès à un réseau Internet public.
- Les fonctionnalités suivantes d'exécution de tâches pour les Jobs d'intégration de données ne sont pas supportées :
- Débogage distant d'un Job d'intégration de données sur des Dynamic Engines
- Utilisation de différents comptes utilisateur·trices (impersonation)
- Vérification personnalisée des signatures
- Le composant tSystem n'est pas supporté.
Limitations du stockage local dans les environnements de Dynamic Engine
Vous pouvez utiliser des composants du système de fichiers local (comme le tFileInputDelimited et le tFileOutputDelimited) pour un accès temporaire aux données au sein d'un Job. Cependant, ces composants ne peuvent être utilisés pour un stockage persistant ou à travers différents Jobs, à cause de la nature temporaire des conteneurs Kubernetes utilisés dans les environnements de Dynamic Engine. Les données des conteneurs sont détruites après la fin de la tâche.
En conséquence, les composants de stockage Cloud, comme S3 ou Azure sont essentiels à la gestion de données dans les environnements de Dynamic Engine. Ils se connectent aux solutions de stockage S3 ou Azure pour transférer des données d'un stockage externe à des conteneurs d'exécution, fournissant un stockage persistant et permettant le partage de données entre les différents Jobs.
- Composants Amazon S3
- Azure Data Lake Storage Gen2
- Azure Storage Blob
- Azure Storage Queue
- Azure Storage Table