Accéder au contenu principal Passer au contenu complémentaire

Communiquer avec un serveur MCP local à l'aide d'OpenAI

Pourquoi et quand exécuter cette tâche

Ce scénario vous présente comment utiliser le composant cLangChainMCPClient pour envoyer une requête au serveur MCP local et en recevoir une réponse à l'aide d'OpenAI.

Pour exécuter ce scénario, vous devez installer Node.js et npm, puis déployer un serveur MCP sur votre système.

Déposer et relier les composants

Procédure

  1. Depuis la Palette, glissez-déposez un cLangChainConnection, un cTimer, un cSetBody, un cLangChainMCPClient et un cLog dans l'espace de modélisation graphique.
  2. Reliez les composants à l'aide d'un lien Row > Route, comme ci-dessous.

Configurer les composants

Procédure

  1. Double-cliquez sur le cLangChainConnection pour afficher sa vue Basic settings dans l'onglet Component.
  2. Dans la liste Language Model, sélectionnez OpenAI.
    Dans le champ Base URL, saisissez l'adresse du serveur d'API, "https://api.openai.com/v1".
    Dans le champ API Key, saisissez votre clé API pour accéder à OpenAI.
    Dans le champ Model Name, saisissez le nom du modèle à utiliser, "gpt-4o-mini".
    Dans le champ Timeout(s), saisissez le délai d'expiration de 1000 secondes pour l'établissement de la connexion au modèle de langage par le composant.
  3. Double-cliquez sur le cTimer pour ouvrir sa vue Basic settings dans l'onglet Component.
  4. Dans le champ Repeat, saisissez 1 pour générer un échange de messages. Laissez les paramètres par défaut pour les autres options.
  5. Double-cliquez sur le composant cSetBody afin d'afficher sa vue Basic settings dans l'onglet Component.
  6. Sélectionnez Constant dans la liste Language et saisissez "Read the file content under the root folder." dans le champ Expression, comme corps du message.
  7. Double-cliquez sur le cLangChainMCPClient pour ouvrir sa vue Basic settings dans l'onglet Component.
  8. Dans la liste Type, sélectionnez Stdio.
    Dans le champ Executable (Exécutable), saisissez le chemin d'accès au fichier npm.cmd.
    Dans le champ Arguments, saisissez "exec","@modelcontextprotocol/server-filesystem@latest","C:/Talend" pour implémenter les opérations sur le système de fichiers dans le dossier C:/Talend.
    Dans la liste Connection, sélectionnez le composant cLangChainConnection_1 pour vous connecter à OpenAI.
  9. Double-cliquez sur le cLog pour ouvrir sa vue Basic settings dans l'onglet Component.
  10. Appuyez sur les touches Ctrl+S pour sauvegarder votre Route.

Visualiser le code et exécuter la Route

Procédure

  1. Cliquez sur l'onglet Code au bas de l'espace de modélisation graphique afin de visualiser le code généré.

    Comme affiché ci-dessus, un flux de messages est routé du cTimer_1 au cLog_1.

  2. Cliquez sur la vue Run pour l'afficher et cliquez sur le bouton Run pour lancer l'exécution de votre Route. Vous pouvez également appuyer sur F6 pour l'exécuter.
    Le contenu du fichier du dossier spécifié est affiché dans la console d'exécution.

Cette page vous a-t-elle aidé ?

Si vous rencontrez des problèmes sur cette page ou dans son contenu – une faute de frappe, une étape manquante ou une erreur technique – faites-le-nous savoir.