メイン コンテンツをスキップする 補完的コンテンツへスキップ

新しい機能

アプリケーションインテグレーション

機能 説明
認証のアクティブ化と設定をオーバーライドする新しいマイクロサービス設定

cRESTコンポーネントとtRESTRequestコンポーネントで、BASICおよびJWTベアラートークンタイプの認証設定をオーバーライドするために、追加のプロパティファイルのパラメーターを使用できるようになりました。

プロパティファイルでのこのセキュリティ設定、およびプロパティファイルのPrometheusエンドポイントの有効化は、マイクロサービスの実行時にコマンドラインで関連パラメーターを使うことで上書きできます。

詳細は、マイクロサービスを実行をご覧ください。
Azure Service Busで新しいルートコンポーネントが利用可能 ルートでcAzureServiceBusコンポーネントが利用可能になったため、Azure Service Busにメッセージを送信したり、Azure Service Busからメッセージを消費できるようになりました。

ビッグデータ

機能 説明
Spark Universal 3.xとDataproc 2.2をサポート Spark 3.xでSpark Universalを使い、Google DataprocクラスターでSparkジョブを実行できるようになりました。Sparkジョブの[Spark configuration] (Spark設定)ビューまたは[Hadoop Cluster Connection] (Hadoopクラスター接続)メタデータウィザードのどちらかで設定できます。
このモードを選択すると、Talend StudioはDataproc 2.1および2.2と互換性を持つようになります。
Sparkバッチジョブの[Spark Configuration] (Spark設定)ビューで、Dataproc 2.2バージョンが強調表示されている状態。
Availability-noteBeta
Spark Universal 3.xでCDP Private Cloud Base 7.3.1をサポート
[Yarn cluster] (Yarnクラスター)モードでSpark 3.xとSparkユニバーサルを使い、CDP Private Cloud Base 7.3.1クラスターでJDK 17でSparkジョブを実行できるようになりました。Sparkジョブの[Spark configuration] (Spark設定)ビューまたは[Hadoop Cluster Connection] (Hadoopクラスター接続)メタデータウィザードのどちらかで設定できます。

この機能のベータ版では、IcebergコンポーネントやKuduコンポーネントを使用したジョブは動作しません。

Sparkバッチジョブの[Spark Configuration] (Spark設定)ビューで、CDP Private Cloud Base 7.3.1バージョンが強調表示されている状態。
AWS Assume RoleでマルチバケットをサポートするようtS3Configurationを強化 tS3Configurationコンポーネントの[Assume role] (ロールを引き受け)で、ジョブ内の複数のバケットにロールを追加できるようになりました。
Spark BatchジョブのtIcebergTableでスキーマの推移をサポート tIcebergTableコンポーネントの[Action on table] (テーブルでのアクション)プロパティで、[Add columns] (カラムを追加)[Alter columns] (カラムを変更)[Drop columns] (カラムをドロップ)[Rename columns] (カラムの名前を変更)[Reorder columns] (カラムの順序を変更)という新しいアクションが利用可能になりました。
[Action on table] (テーブルでのアクション)プロパティのドロップダウンリストに追加された新しいアクション。

データ統合

機能 説明

標準ジョブのSAPでOData API機能をサポート

SAP ODataウェブサービスに対してデータの読み書きができる、次のSAPコンポーネントが利用可能になりました:

  • tSAPODataInputを使用すれば、既存のODataウェブサービスからデータを読み取って、リクエストクエリーパラメーターを設定できます。
  • tSAPODataOutputを使用すれば、既存のSAP ODataウェブサービスからレコードを挿入、更新、削除できます。

Data Mapper

機能 説明
DSQLマップエディター DSQLマップエディターのサポートが一般利用可能(GA)になりました。

DSQLマップエディターでは、Data Shaping Query Languageに基づいてマップを作成できます。

標準マップと同様、DSQLマップを作成し、標準マップでサポートされているすべての表現を使って、1つ(または複数の)入力ファイルを、1つ(または複数の)出力ファイルにマッピングできます。詳細は、標準マップとDSQLマップの違いをご覧ください。

新しいパラメーター化済みの式を作成できる新しいオプション DSQLマップエディターで、新しいパラメーター化済みの式を作成する場合に、次の新しいオプションが利用できるようになりました:
  • [DSQL Parameterized Expressions] (DSQLパラメーター化済みの式)ビューで左側のパネルを右クリックすると、[New parameterized expression] (新しいパラメーター化済みの式)オプションが表示されます。
    [DSQL Parameterized Expressions] (DSQLパラメーター化済みの式)ビューで左側のパネルを右クリックし、[New parameterized expression] (新しいパラメーター化済みの式)オプションが強調表示されている状態。
  • 入力と出力ストラクチャーでエレメントを右クリックすると、[DSQL Parameterized Expressions] (DSQLパラメーター化済みの式)オプションが表示されます。
    出力ストラクチャーでエレメントを右クリックし、[DSQL Parameterized Expressions] (DSQLパラメーター化済みの式)オプションが強調表示されている状態。
[Test Run] (テスト実行)の結果をDSQLマップのファイルシステムに保存できる新しいオプション DSQLマップエディターの[Test Run] (テスト実行)ビューに追加された[Execute Test Run to File] (ファイルへのテスト実行を実施)という新しいオプションにより、DSQLマップの出力結果をファイルシステムに保存できるようになりました。
[Test Run] (テスト実行)ビューの[Execute Test Run to File] (ファイルへのテスト実行を実施)オプション。

データクオリティ

機能 説明
Qlik Talend Data Integrationの検証ルールを使ってデータを検証 tDQRulesという新しい標準コンポーネントを使えば、Talend StudioQlik Talend Data Integrationに接続させて検証ルールを使用できるようになります。

このページは役に立ちましたか?

このページまたはコンテンツにタイポ、ステップの省略、技術的エラーなどの問題が見つかった場合はお知らせください。