Accéder au contenu principal Passer au contenu complémentaire

cLangChainConnection

Ce composant gère la connexion aux grands modèles linguistiques (LLM) supportés par LangChain4j.

Note InformationsRemarque : Ce composant est disponible uniquement si vous avez installé la mise à jour mensuelle R2025-07 du Studio Talend ou une plus récente fournie par Talend. Pour plus d'informations, contactez votre administrateur ou administratrice.

Les propriétés Standards.

Ces propriétés sont utilisées pour configurer le cLangChainConnection s'exécutant dans le framework de Routes Standard.

Le composant cLangChainChat Standard appartient à la famille IA.

Basic settings

Propriétés Description

Language Model

Sélectionnez le modèle de langage : Anthropic, Azure OpenAI, Bedrock, Github Models, Google AI Germini, Ollama et OpenAI.
Note InformationsRemarque : Pour le moment, Google AI Gemini et Github Models ne sont pas entièrement supportés.
Base URL Saisissez l'URL de base du serveur d'API auquel accéder. La valeur par défaut est http://127.0.0.1/default. Cette option est disponible uniquement pour les modèles de langage Anthropic, Ollama et OpenAI.
Clé API Saisissez la clé API pour accéder au modèle de langage. Cette option est disponible uniquement pour les modèles de langage Anthropic, Azure OpenAI, Google AI Germini et OpenAI.
Nom du modèle Saisissez le nom du modèle à utiliser. Cette option est disponible uniquement pour les modèles de langage Anthropic, Bedrock, Google AI Germini, Ollama et OpenAI.
Endpoint Saisissez l'endpoint pour accéder à l'API du service de votre modèle de langage. Cette option est disponible uniquement pour les modèles de langage Azure OpenAI et Github Models.
Deployment Name Saisissez le nom du déploiement dans votre modèle de langage. Cette option est disponible uniquement pour les modèles de langage Azure OpenAI.
Service Version Saisissez la version de votre modèle de langage. Cette option est disponible uniquement pour les modèles de langage Azure OpenAI.
Region Saisissez votre région entre guillemets doubles, par exemple "us-east-1". Cette option est disponible uniquement pour les modèles de langage Bedrock.
Github Token Saisissez le jeton d'accès à GitHub Models. Cette option est disponible uniquement pour les modèles de langage Github Models.
Timeout (s)

Configurez le délai avant expiration (en secondes) de l'établissement de la connexion au serveur par le composant.

Advanced settings

Propriétés Description

Temperature

Saisissez la température de l'échantillon à utiliser, comprise entre 0 et 2. Des valeurs hautes, comme 0.8, rendent la sortie plus aléatoire, tandis que des valeurs basses, comme 0.2, rendent la sortie plus déterministe et centrée.

Max Retries Définissez le nombre d'essais avant que la Route ne soit mise en échec.
Max (Completion) Tokens

Nombre maximal de jetons pouvant être générés durant la complétion du chat.

Log Requests Cochez cette case pour enregistrer les requêtes envoyées au modèle de langage. Cette option est disponible uniquement pour les modèles de langage Anthropic, Ollama et OpenAI.
Log Responses Cochez cette case pour enregistrer les réponses envoyées depuis le modèle de langage. Cette option est disponible uniquement pour les modèles de langage Anthropic, Ollama et OpenAI.
Log Requests and Responses Cochez cette case pour enregistrer les requêtes et les réponses. Cette option est disponible uniquement pour les modèles de langage Azure OpenAI, Github Models et Google AI Germini.

Utilisation

Conseils d'utilisation Description

Règle d'utilisation

Le cLangChainConnection peut être ajouté directement dans une Route sans composant d'entrée ou de sortie lié.

Limitation

 n/a

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.