Accéder au contenu principal Passer au contenu complémentaire

tOllamaClient

Availability-noteBêta
Ce composant accède à l'API Langchain4j Ollama. Avec ce composant, vous pouvez utiliser les modèles Ollama et leurs différentes fonctionnalités.

Propriétés du tOllamaClient Standard

Ces propriétés sont utilisées pour configurer le tOllamaClient s'exécutant dans le framework de Jobs Standard.

Le composant tOllamaClient Standard appartient à la famille IA.

Note InformationsRemarque :
  • Ce composant est disponible uniquement si vous avez installé la mise à jour mensuelle 8.0.1-R2025-02 du Studio Talend ou une mise à jour plus récente fournie par Talend. Pour plus d'informations, contactez votre administrateur ou administratrice.
  • Actuellement, le composant supporte uniquement les versions 3.x des modèles Llama.

Prérequis

Avant d'utiliser ce composant, vous devez :

  • Configurer l'environnement Ollama en suivant les instructions du fichier Ollama README.
  • Installer la version 3.x de Llama dans l'environnement Ollama configuré via la commande ollama run llama3.x (remplacez 3.x par la version de votre choix). Consultez les instructions Ollama du fichier README.

Basic settings

Property type Peut-être Built-In ou Repository.
  • Built-In : propriétés utilisées ponctuellement.
  • Repository : sélectionnez le référentiel dans lequel sont stockées les propriétés. Les champs suivants sont automatiquement renseignés à l'aide des données récupérées.
Schema et Edit Schema Un schéma est une description de lignes, il définit le nombre de champ qui sont traités et passés au composant suivant. Le schéma est soit local (Built-in), soit distant dans le Repository.
  • Built-in : le schéma est créé et stocké localement pour ce composant seulement. Pour plus d'informations concernant les schémas des composants dans l'onglet Basic settings (Paramètres simples), consultez Onglet Basic settings.

  • Repository : le schéma existe déjà et est stocké dans le Repository. Ainsi, il peut être réutilisé dans des Jobs et projets. Pour plus d'informations concernant les schémas des composants dans l'onglet Basic settings (Paramètres simples), consultez Onglet Basic settings.

Créez le schéma en cliquant sur le bouton Edit Schema. Si le schéma est en mode Repository, trois options sont disponibles :

  • View schema : sélectionnez cette option afin de voir uniquement le schéma.

  • Change to built-in property : sélectionnez cette option pour passer le schéma en mode Built-In et effectuer des modifications locales.

  • Update repository connection : sélectionnez cette option afin de modifier le schéma stocké dans le référentiel et décider de propager ou non les modifications à tous les Jobs.

    Si vous souhaitez propager les modifications uniquement au Job courant, cliquez sur No et sélectionnez à nouveau la métadonnée du schéma dans la fenêtre Repository Content.

Host

Saisissez l'URL locale du serveur d'API Ollama auquel accéder. La valeur par défaut est

http://localhost:11434/.
Model (modèle) Pour sélectionner l'un des modèles Llama disponibles, cliquez sur le bouton [...] près du champ. Dans la boîte de dialogue qui s'ouvre, sélectionnez le modèle à utiliser ou cochez la case Use custom value et spécifiez le nom du modèle dans le champ Custom value.

Actuellement, le composant supporte uniquement les modèles Llama 3.x.

Invite Saisissez vos instructions dans ce champ. Pour plus d'informations concernant les bonnes pratiques relatives à l'écriture de prompt, consultez How to prompt Code Llama (en anglais).

Exemple : List the top 10 cities corresponding to the given countries, only include city names in the answer..

Advanced settings

Statistiques du tStatCatcher

Cochez cette case pour collecter les données de log au niveau du Job ainsi qu'au niveau de chaque composant.

Global Variables

Variables globales

ERROR_MESSAGE : message d'erreur généré par le composant lorsqu'une erreur survient. Cette variable est une variable After et retourne une chaîne de caractères. Cette variable fonctionne uniquement si la case Die on error est décochée, lorsque le composant contient cette case.

Utilisation

Règles d'utilisation Ce composant ne peut gérer de colonnes dynamiques.
Les performances de ce composant dépendent des facteurs suivants :
  • Rédaction correcte du prompt, consultez How to prompt Code Llama (en anglais).
  • Taille du modèle Llama. Par exemple, Llama 3.2 (3 o) est plus rapide que Llama 3.3 (70 o).

  • Configuration du processeur, de la mémoire et du processeur graphique.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.