cLangChainConnection
Ce composant gère la connexion aux grands modèles linguistiques (LLM) supportés par LangChain4j.
Les propriétés Standards.
Ces propriétés sont utilisées pour configurer le cLangChainConnection s'exécutant dans le framework de Routes Standard.
Le composant cLangChainChat Standard appartient à la famille IA.
Basic settings
| Propriétés | Description |
|---|---|
|
Language Model |
Sélectionnez le modèle de langage : Anthropic, Azure OpenAI, Bedrock, Github Models, Google AI Germini, Ollama et OpenAI. Note InformationsRemarque : Pour le moment, Google AI Gemini et Github Models ne sont pas entièrement supportés.
|
| Base URL | Saisissez l'URL de base du serveur d'API auquel accéder. La valeur par défaut est http://127.0.0.1/default. Cette option est disponible uniquement pour les modèles de langage Anthropic, Ollama et OpenAI. |
| Clé API | Saisissez la clé API pour accéder au modèle de langage. Cette option est disponible uniquement pour les modèles de langage Anthropic, Azure OpenAI, Google AI Germini et OpenAI. |
| Nom du modèle | Saisissez le nom du modèle à utiliser. Cette option est disponible uniquement pour les modèles de langage Anthropic, Bedrock, Google AI Germini, Ollama et OpenAI. |
| Endpoint | Saisissez l'endpoint pour accéder à l'API du service de votre modèle de langage. Cette option est disponible uniquement pour les modèles de langage Azure OpenAI et Github Models. |
| Deployment Name | Saisissez le nom du déploiement dans votre modèle de langage. Cette option est disponible uniquement pour les modèles de langage Azure OpenAI. |
| Service Version | Saisissez la version de votre modèle de langage. Cette option est disponible uniquement pour les modèles de langage Azure OpenAI. |
| Region | Saisissez votre région entre guillemets doubles, par exemple "us-east-1". Cette option est disponible uniquement pour les modèles de langage Bedrock. |
| Github Token | Saisissez le jeton d'accès à GitHub Models. Cette option est disponible uniquement pour les modèles de langage Github Models. |
| Timeout (s) |
Configurez le délai avant expiration (en secondes) de l'établissement de la connexion au serveur par le composant. |
Advanced settings
| Propriétés | Description |
|---|---|
|
Temperature |
Saisissez la température de l'échantillon à utiliser, comprise entre 0 et 2. Des valeurs hautes, comme 0.8, rendent la sortie plus aléatoire, tandis que des valeurs basses, comme 0.2, rendent la sortie plus déterministe et centrée. |
| Max Retries | Définissez le nombre d'essais avant que la Route ne soit mise en échec. |
| Max (Completion) Tokens |
Nombre maximal de jetons pouvant être générés durant la complétion du chat. |
| Log Requests | Cochez cette case pour enregistrer les requêtes envoyées au modèle de langage. Cette option est disponible uniquement pour les modèles de langage Anthropic, Ollama et OpenAI. |
| Log Responses | Cochez cette case pour enregistrer les réponses envoyées depuis le modèle de langage. Cette option est disponible uniquement pour les modèles de langage Anthropic, Ollama et OpenAI. |
| Log Requests and Responses | Cochez cette case pour enregistrer les requêtes et les réponses. Cette option est disponible uniquement pour les modèles de langage Azure OpenAI, Github Models et Google AI Germini. |
Utilisation
| Conseils d'utilisation | Description |
|---|---|
|
Règle d'utilisation |
Le cLangChainConnection peut être ajouté directement dans une Route sans composant d'entrée ou de sortie lié. |
|
Limitation |
n/a |