メイン コンテンツをスキップする
補完的コンテンツへスキップ
Qlik.com
Community
Learning
日本語 (変更)
Deutsch
English
Français
日本語
中文(中国)
閉じる
ドキュメント
Qlik Talend ドキュメンテーション
リリース ノート
インストールとアップグレード
データ統合
管理と実行
データ品質とガバナンス
アプリケーションと API 統合
追加のリソース
API ドキュメンテーション ポータル
セキュリティ ポータル
Talend アーカイブ
Qlik ヘルプ
Getting Started
Getting started with Talend cloud
Talend Cloud
Talend Cloud API Designer
Talend Cloud Data Inventory
Talend Cloud Data Preparation
Talend Cloud Data Stewardship
Talend Cloud Pipeline Designer
Talend Cloud API Services Platform
Getting started with Talend on premises
Talend Data Fabric
Talend Data Preparation
Talend Data Stewardship
Qlik ヘルプに移動
日本語 (変更)
Deutsch
English
Français
日本語
中文(中国)
検索
ヘルプを検索
メニュー
閉じる
ヘルプを検索
こちらにフィードバックをお寄せください
ジョブ用のTalendコンポーネント
Databricks
Databricksのシナリオ
Sparkを使ってAzure Data Lake Storageからデータの書き込みと読み取りを行う(Azure Databricks)
Azure Data LakeStorageからサンプルデータを読み取る
このページ上
手順
例
例
タスクの結果
手順
tFileInputParquet
をダブルクリックして
[Component] (コンポーネント)
ビューを開きます。
例
[Define a storage configuration component] (ストレージ設定コンポーネントを定義)
チェックボックスをオンにして、前のステップで設定した
tAzureFSConfiguration
コンポーネントを選択します。
[Edit schema] (スキーマを編集)
の横にある
[...]
ボタンをクリックし、スキーマエディターを開きます。
この画像に示すように、
[+]
ボタンをクリックしてスキーマ出力カラムを追加します。
例
[OK]
をクリックしてこれらの変更を確認し、ポップアップ表示されるダイアログボックスで求められるプロパゲーションを承認します。
[Folder/File] (フォルダー/ファイル)
フィールドに、データを読み取るフォルダーの名前を入力します。このシナリオでは
sample_user
です。
tLogRow
をダブルクリックして
[Component] (コンポーネント)
ビューを開き、
[Table] (テーブル)
ラジオボタンを選択して結果をテーブルに表示します。
F6
を押してこのジョブを実行します。
タスクの結果
完了すると、DatabricksクラスターのWeb UIの
[Job] (ジョブ)
ページでジョブを見つけ、ジョブの実行ログを確認できます。
このページは役に立ちましたか?
このページまたはコンテンツにタイポ、ステップの省略、技術的エラーなどの問題が見つかった場合はお知らせください。
こちらにフィードバックをお寄せください
前のトピック
Azure Data Lakeストレージにサンプルデータを書き込む
次のトピック
AWSのDatabricksでS3に対してデータの書き込みと読み取りを実行