メイン コンテンツをスキップする 補完的コンテンツへスキップ

tOllamaClient

Availability-noteBeta
Langchian4j Ollama APIにアクセスします。このコンポーネントによって、Ollamaのモデルとそのさまざまな機能を使用できます。

tOllamaClientの標準プロパティ

これらのプロパティは、標準ジョブのフレームワークで実行されているtOllamaClientを設定するために使われます。

標準tOllamaClientコンポーネントは、AIファミリーに属しています。

情報メモ注:
  • このコンポーネントは、Talendが提供する8.0.1-R2025-02以降のTalend Studioマンスリーアップデートをインストール済みである場合のみ利用できます。詳細は、管理者にお問い合わせください。
  • 現在のところ、このコンポーネントはLlamaモデルの 3.xバージョンのみをサポートしています。

前提条件

このコンポーネントを使用する前に、次の操作が必要です:

  • OllamaのREADMEによる説明に従って、Ollama環境を設定します。
  • ollama run llama3.xコマンド(3.xは目的のバージョンに置き換えてください)を使って設定したOllama環境に、Llamaバージョン3.xをインストールします。OllamaのREADMEによる説明をご覧ください。

基本設定

[Property type] (プロパティタイプ) [Built-in] (組み込み)[Repository] (リポジトリー)のいずれかです。
  • [Built-In] (組み込み): 一元的に保存されるプロパティデータはありません。
  • [Repository] (リポジトリー): プロパティが保管されるリポジトリーファイルを選択します。後続フィールドは、取得されたデータを使用して自動的に入力されます。
[Schema] (スキーマ)[Edit Schema] (スキーマを編集) スキーマとは行の説明で、処理された後に次のコンポーネントに渡されるフィールドの数を定義するものです。スキーマは[Built-in] (組み込み)か、[Repository] (リポジトリー)にリモートで保存されます。
  • [Built-in] (組み込み): そのコンポーネントに対してのみスキーマを作成し、ローカルに保管します。[Basic settings] (基本設定)タブにあるコンポーネントスキーマの詳細は、[Basic settings] (基本設定)をご覧ください。

  • [Repository] (リポジトリー): スキーマは作成済みで、リポジトリーに保存されており、さまざまなプロジェクトやジョブデザインで再利用できます。[Basic settings] (基本設定)タブにあるコンポーネントスキーマの詳細は、[Basic settings] (基本設定)をご覧ください。

スキーマを変更するには[Edit schema] (スキーマを編集)をクリックします。現在のスキーマがリポジトリータイプの場合は、3つのオプションを利用できます。

  • [View schema] (スキーマを表示): スキーマのみを表示する場合は、このオプションを選択します。

  • [Change to built-in property] (組み込みのプロパティに変更): ローカルで変更を行うためにスキーマを組み込みに変更する場合は、このオプションを選択します。

  • [Update repository connection] (リポジトリー接続をアップデート): リポジトリーに保存されているスキーマに変更を加え、変更後にそのコンテンツをすべてのジョブにプロパゲートするかどうかを決める場合は、このオプションを選択します。

    変更を現在のジョブにのみ反映する場合は、変更後、[No] (いいえ)を選択し、[Repository Content] (リポジトリーコンテンツ)ウィンドウで再びこのスキーマのメタデータを選択します。

[Host] (ホスト)

アクセスしたいOllama APIサーバーのローカルURLアドレスを入力します。デフォルトでは

http://localhost:11434/です。
[Model] (モデル) 利用可能ないずれかのLlamaのモデルを選択する場合は、フィールドの横にある[...]ボタンをクリックします。表示されたダイアログボックスで、使われるモジュールタイプを選択します。または、[Use custom value] (カスタム値を使用)チェックボックスをオンにして、[Custom value] (カスタム値)フィールドでモデル名を指定します。

現在のところ、このコンポーネントはLlama 3.xモデルをサポートしています。

[Prompt] (プロンプト) このフィールドに指示を入力します。プロンプト作成のベストプラクティスについては、How to prompt Code Llamaをご覧ください。

例: List the top 10 cities corresponding to the given countries, only include city names in the answer.(特定の国に対応する上位10都市までをリストアップし、回答には都市名のみを含めること。)

詳細設定

[tStatCatcher Statistics] (tStatCatcher統計)

ジョブレベルおよび各コンポーネントレベルでジョブ処理メタデータを収集するには、このチェックボックスを選択します。

グローバル変数

グローバル変数

ERROR_MESSAGE: エラーが発生した時にコンポーネントによって生成されるエラーメッセージ。これはAfter変数で、文字列を返します。この変数はコンポーネントにこのチェックボックスが存在し、[Die on error] (エラー発生時に強制終了)がオフになっている場合のみ機能します。

使用方法

使用ルール このコンポーネントはダイナミックカラムを処理できません。
コンポーネントのパフォーマンスは以下の要因に左右されます:
  • プロンプト文の質。詳細は、How to prompt Code Llamaをご覧ください。
  • LLaMaのモデルサイズ。たとえば、LlaMa 3.2 (3B)はLlaMa 3.3 (70B)より高速となります。

  • ローカルマシンのCPU、メモリ、GPUの設定。

このページは役に立ちましたか?

このページまたはコンテンツにタイポ、ステップの省略、技術的エラーなどの問題が見つかった場合はお知らせください。