Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Crawling für mehrere Datensätze

Wenn Sie zahlreiche Datensätze aus derselben Quelle importieren müssen, brauchen Sie sie nicht einzeln manuell in Talend Cloud Data Inventory zu erstellen, sondern können einen Crawler einrichten, um eine komplette Asset-Liste in einem einzigen Vorgang abzurufen.

Durch das Crawling einer Verbindung können Sie ein umfangreiches Datenvolumen abrufen und Ihren Datenbestand wesentlich effizienter anreichern. Nach der Auswahl einer Verbindung können Sie den gesamten zugehörigen Inhalt bzw. einen Teil davon importieren, indem Sie Schnellsuche und Filter verwenden. Außerdem können Sie die Benutzer auswählen, die Zugriff auf die neu erstellten Datensätze erhalten sollen.

Je nach Ihrem Anwendungsfall stehen Ihnen zwei Crawling-Modi zur Verfügung:

Für das Crawling einer Verbindung für mehrere Datensätze sind die folgenden Voraussetzungen und Einschränkungen gegeben:

  • Ihnen wurde in Talend Management Console die Rolle Dataset administrator (Datensatzadministrator) oder Dataset manager (Datensatzmanager) oder zumindest die Berechtigung Crawling - Add (Crawling - Hinzufügen) zugewiesen.
  • Sie verwenden eine Remote Engine ab Version 2022-02.
  • Sie können lediglich Daten über eine JDBC-Verbindung crawlen. Zudem kann für eine Verbindung jeweils nur ein einzelner Crawler erstellt werden.

Prozedur

  1. Zur Erstellung eines Crawlers für eine Verbindung stehen Ihnen folgende Möglichkeiten zur Auswahl:
    • Positionieren Sie den Mauszeiger auf Ihrer Verbindung in der Verbindungsliste, klicken Sie auf das Symbol Crawl connection (Verbindung crawlen) und anschließend auf die Schaltfläche Add crawler (Crawler hinzufügen).
      Symbol zum Crawlen der Verbindung auf der Registerkarte der Verbindungen („Connections“)
    • Klicken Sie auf die Verbindung in der Verbindungsliste, wählen Sie die Registerkarte Crawler in der Schublade aus und klicken Sie auf Add crawler (Crawler hinzufügen).
      „Crawler“-Registerkarte der Registerkarte der Verbindungen („Connections“)
    Daraufhin wird das Fenster der Crawler-Konfiguration geöffnet.
  2. Wählen Sie den von Ihnen bevorzugten Crawling-Modus aus:
  3. Wählen Sie die Tabellen aus, die aus Ihrer Datenquelle importiert werden sollen, und klicken Sie dann auf Next (Weiter).

    Anschließend müssen Sie festlegen, welche Benutzer Zugriff auf die erstellten Datensätze erhalten und über welche Berechtigungen sie verfügen sollen.

  4. Um Benutzer in der Liste der Zugriffsberechtigten für die Datensätze hinzuzufügen, stehen Ihnen folgende Möglichkeiten zur Auswahl:
    • Positionieren Sie Ihren Mauszeiger auf einem Benutzer oder einer Benutzergruppe, klicken Sie auf das Plussymbol (+) und weisen Sie die gewünschten Rechte über die Dropdown-Liste in der rechten Spalte zu.
    • Wählen Sie einen Benutzer oder eine Benutzergruppe aus, klicken Sie auf Add as (Hinzufügen als) und weisen Sie die gewünschten Rechte über die Dropdown-Liste zu.

      Über Strg + Klick oder Umschalt + Klick können Sie mehrere Gruppen oder Benutzer gleichzeitig auswählen.

    InformationshinweisWichtig: Sie müssen mindestens einen Verantwortlichen für die Datensätze auswählen, um fortfahren zu können.
    Weitere Informationen zu Freigabe und Rollen finden Sie unter Freigeben von Datensätzen.
  5. Klicken Sie auf Next (Weiter), um zum letzten Konfigurationsschritt überzugehen.
  6. Geben Sie in das Feld Name einen Namen für den Crawler ein, in diesem Fall Snowflake crawler, sowie nach Bedarf eine Beschreibung in das Feld Description (Beschreibung), um den Anwendungsfall und den Anwendungsbereich des Crawlers anzugeben.
  7. Klicken Sie auf Run (Ausführen).
    Daraufhin wird im Hintergrund ein asynchroner Prozess gestartet, um die über die Verbindung ausgewählten Datensätze zu crawlen. Sie sind jetzt zur Verbindungsliste zurückgekehrt, die Registerkarte Crawler ist in der rechten Schublade geöffnet. Hier können Sie den Status der Datensatzerstellung sowie die Verfügbarkeit der Samples überwachen.
    „Crawler“-Registerkarte mit dem Status der Datensatzerstellung
    InformationshinweisAnmerkung: Wenn alle Samples abgerufen wurden, werden Datenqualität und Talend Trust Score™ für jeden gecrawlten Datensatz vollständig verarbeitet und sowohl in der Datensatzliste als auch in jeder Datensatzübersicht angezeigt. Wenn Sie einen der gecrawlten Datensätze bearbeiten möchten, bevor das entsprechende Sample zur Verfügung steht, können Sie den Datensatz manuell abrufen. Klicken Sie dazu auf Refresh sample (Sample aktualisieren) in der Ansicht des Datensatz-Samples.

Ergebnisse

Die ausgehend von den Tabellen erstellten Datensätze werden nach und nach in der Datensatzliste hinzugefügt.

Nach dem Start der Ausführung des Crawlers können Sie die Crawler-Konfiguration nicht mehr bearbeiten. Nachdem der Crawler angehalten wurde oder fertig ist, können Sie die Tabellenauswahl, den Namen und die Beschreibung des Crawlers bearbeiten. Die Freigabeeinstellungen können aber nicht bearbeitet werden. Um die Verbindung mit anderen Freigabeeinstellungen erneut zu crawlen, löschen Sie den Crawler und erstellen Sie einen neuen.

Sie können einen Crawler-Namen als Facette in der Datenbanksuche verwenden, um alle mit dem betreffenden Crawler verknüpften Datensätze anzuzeigen.

InformationshinweisTipp: Die Crawler-Ausführungen können per API automatisiert werden, sodass über die Verbindung in regelmäßigen Abständen Daten abgerufen werden. Weitere Informationen finden Sie unter Planen einer Crawler-Ausführung.

Hat diese Seite Ihnen geholfen?

Wenn Sie ein Problem mit dieser Seite oder ihrem Inhalt feststellen, sei es ein Tippfehler, ein ausgelassener Schritt oder ein technischer Fehler, informieren Sie uns bitte!