Erstellen einer Hugging Face-Verbindung
Um mit Hugging Face kommunizieren zu können, erstellen Sie eine Verbindung zur Hugging Face-Analysequelle. Die Verbindung wird auf der Seite „Erstellen“ des Aktivitätscenters Analysen, Dateneditor oder Skript hergestellt.
Die von diesen Verbindungen erhaltenen Daten können im Ladeskript und in Diagrammformeln verwendet werden, um Ihre Qlik Sense Analyse-Apps zu verbessern.
Konfigurationen und konfigurierbare Einstellungen
Richten Sie Ihre Hugging Face-Analyseverbindung mit einer der folgenden Konfigurationen ein. Jede Verbindung kann aus einer einzelnen Konfiguration bestehen.
Jede verfügbare Konfiguration des Hugging Face-Konnektors entspricht einer gemeinsamen Aufgabe, die Sie mit einem über die Hugging Face-Plattform bereitgestellten Modell durchführen können. Es stehen Tausende Modelle für die verschiedensten Aufgaben zur Verfügung.
Nicht alle Hugging Face-Modelle sind für die Verwendung mit dem Qlik Hugging Face-Konnektor verfügbar. Die Verfügbarkeit eines Modells für die Verwendung in Qlik Sense hängt zum Teil von externen Faktoren ab. Zusätzliche modellspezifische Einschränkungen und Anforderungen können gelten und sich darauf auswirken, wie Sie den Konnektor konfigurieren und Daten damit austauschen. Vollständige Details zu spezifischen Modellen finden Sie in der offiziellen Hugging Face-Dokumentation.
Feature Extraction
Verwenden Sie diese Konfiguration, um mit Modellen zu arbeiten, die Feature-Extraktionsaufgaben durchführen. Generell ist die Feature-Extraktion ein technischer ML-Prozess mit vielen praktischen Anwendungen. Mit dieser Aufgabe werden Eingabedaten in numerische Features konvertiert.
Weitere Informationen finden Sie in den folgenden Hugging Face-Ressourcen:
-
Überblick über Feature-Extraktionsaufgaben: Feature Extraction
-
Detaillierte Erläuterung der Parameter: Inference API - Detailed parameters
Feld | Beschreibung |
---|---|
Configuration | Wählen Sie die Konnektorkonfiguration aus. Wählen Sie für Modelle, die in Feature-Extraktionsaufgaben verwendet werden, Feature Extraction aus. |
Hugging Face Inference API endpoint | Geben Sie die Endpunkt-URL ein, über die Qlik Sense auf das Modell zugreifen kann. Dies geschieht in der Regel über die Hugging Face Inference API. |
Hugging Face API Token | Geben Sie das Hugging Face API-Token ein, das Sie nach dem Erstellen Ihres Kontos generiert haben. Damit werden Ihre Kontoanmeldedaten authentifiziert, damit Sie die externen Dienste nutzen können. Weitere Informationen finden Sie unter API-Token generieren. |
Use Cache |
Diese Einstellung ist standardmäßig auf „Wahr“ eingestellt. Legen Sie fest, ob Zwischenspeicherung verwendet werden soll, um Modellantworten wiederzuverwenden, wenn die gleiche Anfrage zweimal gestellt wird. Abhängig vom Modell können Sie diese Einstellung deaktivieren. |
Wait For Model |
Diese Einstellung ist standardmäßig auf „Falsch“ eingestellt. Wenn sie aktiviert ist, können Sie die Anzahl der Anfragen an die API reduzieren, indem Sie warten, bis das Modell bereit ist, bevor Sie eine Anfrage stellen. |
Association Field |
Geben Sie als Verknüpfungsfeld ein Feld aus der Eingabedatentabelle an, das einen eindeutigen Identifikator enthält. Dieser Parameter ist optional. Es ist erforderlich, dieses Feld in die Datenquelle einzuschließen, wenn eine Endpunktanforderung gestellt wird, damit die zurückgegebene Ergebnistabelle mittels eines Schlüssels mit der Quellfeldtabelle verknüpft wird. Das bezeichnete Feld wird als Feld in der Antwort zurückgegeben und ermöglicht die Verknüpfung der Antwort mit den Quelldaten im Datenmodell. Dabei kann es sich um ein beliebiges Feld mit einer eindeutigen ID handeln, entweder aus den Quelldaten oder als Teil des Tabellenladevorgangs. |
Name | Der Name der Verbindung. Wenn Sie keinen Namen eingeben, wird der Standardname verwendet. |
Question Answering
Verwenden Sie diese Konfiguration, um mit Modellen zu arbeiten, die Fragebeantwortungsaufgaben durchführen. Mit der Fragebeantwortung kann ein Modell dazu verwendet werden, die Antwort auf eine Frage anhand eines getrennt bereitgestellten Kontextsegments abzurufen. In Qlik Sense werden sowohl die Frage als auch der Kontext in den App- oder Skriptdaten bereitgestellt.
Weitere Informationen finden Sie in den folgenden Hugging Face-Ressourcen:
-
Übersicht über Fragebeantwortungsaufgaben: Question Answering
-
Detaillierte Erläuterung der Parameter: Inference API - Detailed parameters
Feld | Beschreibung |
---|---|
Configuration | Wählen Sie die Konnektorkonfiguration aus. Wählen Sie für Modelle, die in Fragebeantwortungsaufgaben verwendet werden, Question Answering aus. |
Hugging Face Inference API endpoint | Geben Sie die Endpunkt-URL ein, über die Qlik Sense auf das Modell zugreifen kann. Dies geschieht in der Regel über die Hugging Face Inference API. |
Hugging Face API Token | Geben Sie das Hugging Face API-Token ein, das Sie nach dem Erstellen Ihres Kontos generiert haben. Damit werden Ihre Kontoanmeldedaten authentifiziert, damit Sie die externen Dienste nutzen können. Weitere Informationen finden Sie unter API-Token generieren. |
Use Cache |
Diese Einstellung ist standardmäßig auf „Wahr“ eingestellt. Legen Sie fest, ob Zwischenspeicherung verwendet werden soll, um Modellantworten wiederzuverwenden, wenn die gleiche Anfrage zweimal gestellt wird. Abhängig vom Modell können Sie diese Einstellung deaktivieren. |
Wait For Model |
Diese Einstellung ist standardmäßig auf „Falsch“ eingestellt. Wenn sie aktiviert ist, können Sie die Anzahl der Anfragen an die API reduzieren, indem Sie warten, bis das Modell bereit ist, bevor Sie eine Anfrage stellen. |
Association Field |
Geben Sie als Verknüpfungsfeld ein Feld aus der Eingabedatentabelle an, das einen eindeutigen Identifikator enthält. Dieser Parameter ist optional. Es ist erforderlich, dieses Feld in die Datenquelle einzuschließen, wenn eine Endpunktanforderung gestellt wird, damit die zurückgegebene Ergebnistabelle mittels eines Schlüssels mit der Quellfeldtabelle verknüpft wird. Das bezeichnete Feld wird als Feld in der Antwort zurückgegeben und ermöglicht die Verknüpfung der Antwort mit den Quelldaten im Datenmodell. Dabei kann es sich um ein beliebiges Feld mit einer eindeutigen ID handeln, entweder aus den Quelldaten oder als Teil des Tabellenladevorgangs. |
Name | Der Name der Verbindung. Wenn Sie keinen Namen eingeben, wird der Standardname verwendet. |
Summarization
Verwenden Sie diese Konfiguration, um mit Modellen zu arbeiten, die Zusammenfassungsaufgaben durchführen. Ein Modell führt eine Zusammenfassung durch, indem ein bestimmter Eingabetext als kürzere Zusammenfassung dieses Textes unter Beibehaltung der wesentlichen Details ausgegeben wird.
Weitere Informationen finden Sie in den folgenden Hugging Face-Ressourcen:
-
Übersicht über Zusammenfassungsaufgaben: Summarization
-
Detaillierte Erläuterung der Parameter: Inference API - Detailed parameters
Feld | Beschreibung |
---|---|
Configuration | Wählen Sie die Konnektorkonfiguration aus. Wählen Sie für Modelle, die in Zusammenfassungsaufgaben verwendet werden, Summarization aus. |
Hugging Face Inference API endpoint | Geben Sie die Endpunkt-URL ein, über die Qlik Sense auf das Modell zugreifen kann. Dies geschieht in der Regel über die Hugging Face Inference API. |
Hugging Face API Token | Geben Sie das Hugging Face API-Token ein, das Sie nach dem Erstellen Ihres Kontos generiert haben. Damit werden Ihre Kontoanmeldedaten authentifiziert, damit Sie die externen Dienste nutzen können. Weitere Informationen finden Sie unter API-Token generieren. |
Minimum Token Length | Legen Sie einen Ganzzahlwert als Mindestanzahl der Token fest, die in der Modellausgabe verwendet werden sollen. Dieser Parameter ist optional. Wenn kein Wert angegeben wird, hat die Ausgabe keine Mindestlänge. |
Maximum Token Length | Legen Sie einen Ganzzahlwert als Höchstzahl der Token fest, die in der Modellausgabe verwendet werden sollen. Dieser Parameter ist optional. Wenn kein Wert angegeben wird, hat die Ausgabe keine maximale Länge. |
Top K | Legen Sie einen Ganzzahlwert als Anzahl der wahrscheinlichsten Token fest, die in der Ausgabe verwendet werden sollen. Dieser Parameter ist optional. Wenn kein Wert angegeben wird, hat die Ausgabe keine Höchstzahl der wahrscheinlichsten Token, die in der Ausgabe verwendet werden sollen. |
Top P |
Geben Sie einen numerischen Wert (konkret einen Gleitpunkt) an, um die Zufälligkeit der Ausgabe hinsichtlich der Token-Wahrscheinlichkeit zu steuern. Umfassende Einzelheiten finden Sie in der Hugging Face-Dokumentation. Dieser Parameter ist optional. Wenn kein Wert angegeben wird, wird die Ausgabe nicht hinsichtlich der Zufälligkeit Ihrer Auswahlen kontrolliert. |
Temperature | Geben Sie einen Gleitpunktwert (zwischen 0.00 und 100.0) ein, um die Zufälligkeit der Ausgabe zu kontrollieren. Ein höherer Wert führt in der Regel zu mehr Token-Zufälligkeit. Der Standardwert ist 1.0. Dieser Parameter ist optional. |
Repetition Penalty | Geben Sie einen Gleitpunktwert (zwischen 0.00 und 100.0) an, um eine Strafe für wiederholte Token zu erzwingen. Der Standardwert ist 1.0. Dieser Parameter ist optional. |
Maximum Query Time | Geben Sie einen Gleitpunktwert (zwischen 0 und 120.0) für die maximale Zeit in Sekunden an, die eine Abfrage dauern kann. Dies ist ein weicher Grenzwert. Dieser Parameter ist optional. Wenn kein Wert angegeben ist, wird keine maximale Abfragezeit festgelegt. |
Use Cache |
Diese Einstellung ist standardmäßig auf „Wahr“ eingestellt. Legen Sie fest, ob Zwischenspeicherung verwendet werden soll, um Modellantworten wiederzuverwenden, wenn die gleiche Anfrage zweimal gestellt wird. Abhängig vom Modell können Sie diese Einstellung deaktivieren. |
Wait For Model |
Diese Einstellung ist standardmäßig auf „Falsch“ eingestellt. Wenn sie aktiviert ist, können Sie die Anzahl der Anfragen an die API reduzieren, indem Sie warten, bis das Modell bereit ist, bevor Sie eine Anfrage stellen. |
Association Field |
Geben Sie als Verknüpfungsfeld ein Feld aus der Eingabedatentabelle an, das einen eindeutigen Identifikator enthält. Dieser Parameter ist optional. Es ist erforderlich, dieses Feld in die Datenquelle einzuschließen, wenn eine Endpunktanforderung gestellt wird, damit die zurückgegebene Ergebnistabelle mittels eines Schlüssels mit der Quellfeldtabelle verknüpft wird. Das bezeichnete Feld wird als Feld in der Antwort zurückgegeben und ermöglicht die Verknüpfung der Antwort mit den Quelldaten im Datenmodell. Dabei kann es sich um ein beliebiges Feld mit einer eindeutigen ID handeln, entweder aus den Quelldaten oder als Teil des Tabellenladevorgangs. |
Name | Der Name der Verbindung. Wenn Sie keinen Namen eingeben, wird der Standardname verwendet. |
Sentence Similarity
Verwenden Sie diese Konfiguration, um mit Modellen zu arbeiten, die Satzähnlichkeitsanalyse durchführen. In diesem Aufgabentyp vergleicht ein Modell einen oder mehrere eindeutige Sätze mit einem Quellsatz und produziert Einbettungen, in denen Informationen über die Ähnlichkeit zwischen den Sätzen gespeichert werden. Diese Einbettungen sind numerische Werte. Die Verwendung von Einbettungen ist ein komplexer ML-Prozess.
In Qlik Sense wird der Quellsatz in der Konnektorkonfiguration bereitgestellt, und die Eingabesätze (die vom Modell mit dem Quellsatz verglichen werden) werden in den App- oder Skriptdaten bereitgestellt.
Weitere Informationen finden Sie in den folgenden Hugging Face-Ressourcen:
-
Übersicht über Satzähnlichkeitsaufgaben: Sentence Similarity
-
Detaillierte Erläuterung der Parameter: Inference API - Detailed parameters
Feld | Beschreibung |
---|---|
Configuration | Wählen Sie die Konnektorkonfiguration aus. Wählen Sie für Modelle, die für Aufgaben im Zusammenhang mit der Satzähnlichkeitsanalyse verwendet werden, Sentence Similarity aus. |
Hugging Face Inference API endpoint | Geben Sie die Endpunkt-URL ein, über die Qlik Sense auf das Modell zugreifen kann. Dies geschieht in der Regel über die Hugging Face Inference API. |
Hugging Face API Token | Geben Sie das Hugging Face API-Token ein, das Sie nach dem Erstellen Ihres Kontos generiert haben. Damit werden Ihre Kontoanmeldedaten authentifiziert, damit Sie die externen Dienste nutzen können. Weitere Informationen finden Sie unter API-Token generieren. |
Source Sentence |
Das Model vergleicht den Textstring mit jedem der Eingabedatenelemente, wobei es die Ähnlichkeit zwischen den beiden Strings bewertet. |
Use Cache |
Diese Einstellung ist standardmäßig auf „Wahr“ eingestellt. Legen Sie fest, ob Zwischenspeicherung verwendet werden soll, um Modellantworten wiederzuverwenden, wenn die gleiche Anfrage zweimal gestellt wird. Abhängig vom Modell können Sie diese Einstellung deaktivieren. |
Wait For Model |
Diese Einstellung ist standardmäßig auf „Falsch“ eingestellt. Wenn sie aktiviert ist, können Sie die Anzahl der Anfragen an die API reduzieren, indem Sie warten, bis das Modell bereit ist, bevor Sie eine Anfrage stellen. |
Association Field |
Geben Sie als Verknüpfungsfeld ein Feld aus der Eingabedatentabelle an, das einen eindeutigen Identifikator enthält. Dieser Parameter ist optional. Es ist erforderlich, dieses Feld in die Datenquelle einzuschließen, wenn eine Endpunktanforderung gestellt wird, damit die zurückgegebene Ergebnistabelle mittels eines Schlüssels mit der Quellfeldtabelle verknüpft wird. Das bezeichnete Feld wird als Feld in der Antwort zurückgegeben und ermöglicht die Verknüpfung der Antwort mit den Quelldaten im Datenmodell. Dabei kann es sich um ein beliebiges Feld mit einer eindeutigen ID handeln, entweder aus den Quelldaten oder als Teil des Tabellenladevorgangs. |
Name | Der Name der Verbindung. Wenn Sie keinen Namen eingeben, wird der Standardname verwendet. |
Text Classification
Verwenden Sie diese Konfiguration, um mit Modellen zu arbeiten, die Textklassifizierungsaufgaben durchführen. Die Textklassifizierung ist eine vielseitige Aufgabe, bei der ein Modell Stimmungsanalysen, Prüfungen der grammatikalischen Richtigkeit und andere Sprachverarbeitungsaktionen durchführen kann.
Weitere Informationen finden Sie in den folgenden Hugging Face-Ressourcen:
-
Übersicht über Textklassifizierungsaufgaben: Text Classification
-
Detaillierte Erläuterung der Parameter: Inference API - Detailed parameters
Feld | Beschreibung |
---|---|
Configuration | Wählen Sie die Konnektorkonfiguration aus. Wählen Sie für Modelle, die in Textklassifizierungsaufgaben verwendet werden, Text Classification aus. |
Hugging Face Inference API endpoint | Geben Sie die Endpunkt-URL ein, über die Qlik Sense auf das Modell zugreifen kann. Dies geschieht in der Regel über die Hugging Face Inference API. |
Hugging Face API Token | Geben Sie das Hugging Face API-Token ein, das Sie nach dem Erstellen Ihres Kontos generiert haben. Damit werden Ihre Kontoanmeldedaten authentifiziert, damit Sie die externen Dienste nutzen können. Weitere Informationen finden Sie unter API-Token generieren. |
Use Cache |
Diese Einstellung ist standardmäßig auf „Wahr“ eingestellt. Legen Sie fest, ob Zwischenspeicherung verwendet werden soll, um Modellantworten wiederzuverwenden, wenn die gleiche Anfrage zweimal gestellt wird. Abhängig vom Modell können Sie diese Einstellung deaktivieren. |
Wait For Model |
Diese Einstellung ist standardmäßig auf „Falsch“ eingestellt. Wenn sie aktiviert ist, können Sie die Anzahl der Anfragen an die API reduzieren, indem Sie warten, bis das Modell bereit ist, bevor Sie eine Anfrage stellen. |
Association Field |
Geben Sie als Verknüpfungsfeld ein Feld aus der Eingabedatentabelle an, das einen eindeutigen Identifikator enthält. Dieser Parameter ist optional. Es ist erforderlich, dieses Feld in die Datenquelle einzuschließen, wenn eine Endpunktanforderung gestellt wird, damit die zurückgegebene Ergebnistabelle mittels eines Schlüssels mit der Quellfeldtabelle verknüpft wird. Das bezeichnete Feld wird als Feld in der Antwort zurückgegeben und ermöglicht die Verknüpfung der Antwort mit den Quelldaten im Datenmodell. Dabei kann es sich um ein beliebiges Feld mit einer eindeutigen ID handeln, entweder aus den Quelldaten oder als Teil des Tabellenladevorgangs. |
Name | Der Name der Verbindung. Wenn Sie keinen Namen eingeben, wird der Standardname verwendet. |
Text Generation
Verwenden Sie diese Konfiguration, um mit Modellen zu arbeiten, die Texterstellungsaufgaben durchführen. Modelle, die diesen Aufgabentyp verwenden, können in der Regel unvollständige Textsegmente ergänzen oder den Text paraphrasieren.
Weitere Informationen finden Sie in den folgenden Hugging Face-Ressourcen:
-
Übersicht über Texterstellungsaufgaben: Text Generation
-
Detaillierte Erläuterung der Parameter: Inference API - Detailed parameters
Feld | Beschreibung |
---|---|
Configuration | Wählen Sie die Konnektorkonfiguration aus. Wählen Sie für Modelle, die in Texterstellungsaufgaben verwendet werden, Text Generation aus. |
Hugging Face Inference API endpoint | Geben Sie die Endpunkt-URL ein, über die Qlik Sense auf das Modell zugreifen kann. Dies geschieht in der Regel über die Hugging Face Inference API. |
Hugging Face API Token | Geben Sie das Hugging Face API-Token ein, das Sie nach dem Erstellen Ihres Kontos generiert haben. Damit werden Ihre Kontoanmeldedaten authentifiziert, damit Sie die externen Dienste nutzen können. Weitere Informationen finden Sie unter API-Token generieren. |
Maximum Token Length | Legen Sie einen Ganzzahlwert als Höchstzahl der Token fest, die in der Modellausgabe verwendet werden sollen. Dieser Parameter ist optional. Wenn kein Wert angegeben wird, hat die Ausgabe keine maximale Länge. |
Top K | Legen Sie einen Ganzzahlwert als Anzahl der wahrscheinlichsten Token fest, die in der Ausgabe verwendet werden sollen. Dieser Parameter ist optional. Wenn kein Wert angegeben wird, hat die Ausgabe keine Höchstzahl der wahrscheinlichsten Token, die in der Ausgabe verwendet werden sollen. |
Top P |
Geben Sie einen numerischen Wert (konkret einen Gleitpunkt) an, um die Zufälligkeit der Ausgabe hinsichtlich der Token-Wahrscheinlichkeit zu steuern. Umfassende Einzelheiten finden Sie in der Hugging Face-Dokumentation. Dieser Parameter ist optional. Wenn kein Wert angegeben wird, wird die Ausgabe nicht hinsichtlich der Zufälligkeit Ihrer Auswahlen kontrolliert. |
Temperature | Geben Sie einen Gleitpunktwert (zwischen 0.00 und 100.0) ein, um die Zufälligkeit der Ausgabe zu kontrollieren. Ein höherer Wert führt in der Regel zu mehr Token-Zufälligkeit. Der Standardwert ist 1.0. Dieser Parameter ist optional. |
Repetition Penalty | Geben Sie einen Gleitpunktwert (zwischen 0.00 und 100.0) an, um eine Strafe für wiederholte Token zu erzwingen. Der Standardwert ist 1.0. Dieser Parameter ist optional. |
Maximum Query Time | Geben Sie einen Gleitpunktwert (zwischen 0 und 120.0) für die maximale Zeit in Sekunden an, die eine Abfrage dauern kann. Dies ist ein weicher Grenzwert. Dieser Parameter ist optional. Wenn kein Wert angegeben ist, wird keine maximale Abfragezeit festgelegt. |
Use Cache |
Diese Einstellung ist standardmäßig auf „Wahr“ eingestellt. Legen Sie fest, ob Zwischenspeicherung verwendet werden soll, um Modellantworten wiederzuverwenden, wenn die gleiche Anfrage zweimal gestellt wird. Abhängig vom Modell können Sie diese Einstellung deaktivieren. |
Wait For Model |
Diese Einstellung ist standardmäßig auf „Falsch“ eingestellt. Wenn sie aktiviert ist, können Sie die Anzahl der Anfragen an die API reduzieren, indem Sie warten, bis das Modell bereit ist, bevor Sie eine Anfrage stellen. |
Association Field |
Geben Sie als Verknüpfungsfeld ein Feld aus der Eingabedatentabelle an, das einen eindeutigen Identifikator enthält. Dieser Parameter ist optional. Es ist erforderlich, dieses Feld in die Datenquelle einzuschließen, wenn eine Endpunktanforderung gestellt wird, damit die zurückgegebene Ergebnistabelle mittels eines Schlüssels mit der Quellfeldtabelle verknüpft wird. Das bezeichnete Feld wird als Feld in der Antwort zurückgegeben und ermöglicht die Verknüpfung der Antwort mit den Quelldaten im Datenmodell. Dabei kann es sich um ein beliebiges Feld mit einer eindeutigen ID handeln, entweder aus den Quelldaten oder als Teil des Tabellenladevorgangs. |
Name | Der Name der Verbindung. Wenn Sie keinen Namen eingeben, wird der Standardname verwendet. |
Token Classification
Verwenden Sie diese Konfiguration, um mit Modellen zu arbeiten, die Token-Klassifizierungsaufgaben durchführen. Mit der Token-Klassifizierung kann ein Modell Textstrings (Token) als klassifizierbare Elemente (z. B. Orte, Personen und Satzteile) identifizieren.
Weitere Informationen finden Sie in den folgenden Hugging Face-Ressourcen:
-
Übersicht über Token-Klassifizierungsaufgaben: Token Classification
-
Detaillierte Erläuterung der Parameter: Inference API - Detailed parameters
Feld | Beschreibung |
---|---|
Configuration | Wählen Sie die Konnektorkonfiguration aus. Wählen Sie für Modelle, die in Token-Klassifizierungsaufgaben verwendet werden, Token Classification aus. |
Hugging Face Inference API endpoint | Geben Sie die Endpunkt-URL ein, über die Qlik Sense auf das Modell zugreifen kann. Dies geschieht in der Regel über die Hugging Face Inference API. |
Hugging Face API Token | Geben Sie das Hugging Face API-Token ein, das Sie nach dem Erstellen Ihres Kontos generiert haben. Damit werden Ihre Kontoanmeldedaten authentifiziert, damit Sie die externen Dienste nutzen können. Weitere Informationen finden Sie unter API-Token generieren. |
Aggregation Strategy |
Die Klassifizierung der Elemente in Ihrer Eingabe kann Aggregierungsverarbeitung durchlaufen. Dieser Parameter gibt den Typ der angewendeten Aggregierungsstrategie bei Klassifizierungen an. Wählen Sie aus folgenden Optionen aus:
Simple ist die Standardoption. |
Use Cache |
Diese Einstellung ist standardmäßig auf „Wahr“ eingestellt. Legen Sie fest, ob Zwischenspeicherung verwendet werden soll, um Modellantworten wiederzuverwenden, wenn die gleiche Anfrage zweimal gestellt wird. Abhängig vom Modell können Sie diese Einstellung deaktivieren. |
Wait For Model |
Diese Einstellung ist standardmäßig auf „Falsch“ eingestellt. Wenn sie aktiviert ist, können Sie die Anzahl der Anfragen an die API reduzieren, indem Sie warten, bis das Modell bereit ist, bevor Sie eine Anfrage stellen. |
Association Field |
Geben Sie als Verknüpfungsfeld ein Feld aus der Eingabedatentabelle an, das einen eindeutigen Identifikator enthält. Dieser Parameter ist optional. Es ist erforderlich, dieses Feld in die Datenquelle einzuschließen, wenn eine Endpunktanforderung gestellt wird, damit die zurückgegebene Ergebnistabelle mittels eines Schlüssels mit der Quellfeldtabelle verknüpft wird. Das bezeichnete Feld wird als Feld in der Antwort zurückgegeben und ermöglicht die Verknüpfung der Antwort mit den Quelldaten im Datenmodell. Dabei kann es sich um ein beliebiges Feld mit einer eindeutigen ID handeln, entweder aus den Quelldaten oder als Teil des Tabellenladevorgangs. |
Name | Der Name der Verbindung. Wenn Sie keinen Namen eingeben, wird der Standardname verwendet. |
Translation
Verwenden Sie diese Konfiguration, um mit Modellen zu arbeiten, die Übersetzungsaufgaben durchführen. Modelle können Eingabetext in einer bestimmten Sprache in eine andere Sprache übersetzen.
Weitere Informationen finden Sie in den folgenden Hugging Face-Ressourcen:
-
Übersicht über Übersetzungsaufgaben: Translation
-
Detaillierte Erläuterung der Parameter: Inference API - Detailed parameters
Feld | Beschreibung |
---|---|
Configuration | Wählen Sie die Konnektorkonfiguration aus. Wählen Sie für Modelle, die in Übersetzungsaufgaben verwendet werden, Translation aus. |
Hugging Face Inference API endpoint | Geben Sie die Endpunkt-URL ein, über die Qlik Sense auf das Modell zugreifen kann. Dies geschieht in der Regel über die Hugging Face Inference API. |
Hugging Face API Token | Geben Sie das Hugging Face API-Token ein, das Sie nach dem Erstellen Ihres Kontos generiert haben. Damit werden Ihre Kontoanmeldedaten authentifiziert, damit Sie die externen Dienste nutzen können. Weitere Informationen finden Sie unter API-Token generieren. |
Source Language |
Geben Sie die Sprache des Eingabetexts ein, dessen Übersetzung Sie anfordern. Dieser Parameter ist optional. InformationshinweisDie Sprachübersetzungsfähigkeiten der einzelnen Modelle können variieren. Beispielsweise kann ein Modell dafür bestimmt sein, nur Text zwischen zwei bestimmten Sprachen zu übersetzen. In diesem Fall ist es sinnvoll, diesen Parameter leer zu lassen.
|
Target Language |
Geben Sie die Sprache ein, in die der Eingabetext übersetzt werden soll. Dieser Parameter ist optional. InformationshinweisDie Sprachübersetzungsfähigkeiten der einzelnen Modelle können variieren. Beispielsweise kann ein Modell dafür bestimmt sein, nur Text zwischen zwei bestimmten Sprachen zu übersetzen. In diesem Fall ist es sinnvoll, diesen Parameter leer zu lassen.
|
Use Cache |
Diese Einstellung ist standardmäßig auf „Wahr“ eingestellt. Legen Sie fest, ob Zwischenspeicherung verwendet werden soll, um Modellantworten wiederzuverwenden, wenn die gleiche Anfrage zweimal gestellt wird. Abhängig vom Modell können Sie diese Einstellung deaktivieren. |
Wait For Model |
Diese Einstellung ist standardmäßig auf „Falsch“ eingestellt. Wenn sie aktiviert ist, können Sie die Anzahl der Anfragen an die API reduzieren, indem Sie warten, bis das Modell bereit ist, bevor Sie eine Anfrage stellen. |
Association Field |
Geben Sie als Verknüpfungsfeld ein Feld aus der Eingabedatentabelle an, das einen eindeutigen Identifikator enthält. Dieser Parameter ist optional. Es ist erforderlich, dieses Feld in die Datenquelle einzuschließen, wenn eine Endpunktanforderung gestellt wird, damit die zurückgegebene Ergebnistabelle mittels eines Schlüssels mit der Quellfeldtabelle verknüpft wird. Das bezeichnete Feld wird als Feld in der Antwort zurückgegeben und ermöglicht die Verknüpfung der Antwort mit den Quelldaten im Datenmodell. Dabei kann es sich um ein beliebiges Feld mit einer eindeutigen ID handeln, entweder aus den Quelldaten oder als Teil des Tabellenladevorgangs. |
Name | Der Name der Verbindung. Wenn Sie keinen Namen eingeben, wird der Standardname verwendet. |
Erstellen einer neuen Verbindung
Sie können eine Verbindung zum Analysekonnektor über das Aktivitätscenter Analysen, über den Dateneditor in einer vorhandenen App oder über den Skript in einem vorhandenen Skript erstellen. Folgen Sie den Schritten unten, um eine Verbindung zu erstellen.
Gehen Sie folgendermaßen vor:
-
Öffnen Sie den Konnektor im Dateneditor oder im Skript.
-
Klicken Sie auf Neue Verbindung erstellen.
-
Wählen Sie unter Bereich den Bereich aus, in den sich die Verbindung befinden soll.
-
Wählen Sie Hugging Face aus der Liste der Datenkonnektoren aus.
-
Füllen Sie die Felder des Verbindungsdialogfelds aus.
-
Klicken Sie auf Erstellen.
Die Datenverbindung wird in dem Bereich gespeichert, in dem die App erstellt wurde. Daher kann sie in anderen Qlik Sense Apps und Skripten wiederverwendet werden. Sie ist auch unter Datenverbindungen in Dateneditor oder Skript aufgelistet.
Nachdem Sie die Verbindung erstellt haben, können Sie sie verwenden, um Daten mit den Anfragen und den Antworten der Plattform auf die Anfragen zu laden. Zudem können Sie sie in Diagrammformeln verwenden. Weitere Informationen finden Sie unter Auswählen und Laden von Daten in einer Hugging Face-Verbindung und Verwenden von Hugging Face-Verbindungen in Visualisierungsformeln.