Zu Hauptinhalt springen Zu ergänzendem Inhalt springen

Erstellen einer OpenAI-Verbindung

Um mit der OpenAI-Plattform kommunizieren zu können, erstellen Sie eine Verbindung zu der OpenAI-Analysequelle.

Um mit OpenAI kommunizieren zu können, erstellen Sie eine Verbindung zur OpenAI-Analysequelle. Die Verbindung wird auf der Seite „Erstellen“ des Aktivitätscenters Analysen, Dateneditor oder Skript hergestellt.

Die von diesen Verbindungen erhaltenen Daten können im Ladeskript und in Diagrammformeln verwendet werden, um Ihre Qlik Sense Analyse-Apps zu verbessern.

Konfigurationen und konfigurierbare Einstellungen

Richten Sie Ihre OpenAI-Analyseverbindung mit einer der folgenden Konfigurationen ein. Die weiteren konfigurierbaren Einstellungen können abhängig von der verwendeten Konfiguration variieren.

OpenAI Completions API (GPT-3) - Rows

Mit dieser Konfiguration wird jede Datenzeile als Frage an die Completions API gesendet (in kleinen Batches für bessere Leistung). Jede Antwort wird als Text in einer Tabelle mit der gleichen Anzahl Zeilen wie die Eingabe gespeichert.

Diese Konfiguration kann sowohl im Datenladeskript als auch in den Diagrammformeln verwendet werden.

Die OpenAI-Dokumentation zur in dieser Konfiguration verwendeten API finden Sie unter Completions.

Konfigurierbare Einstellungen für die Konfiguration „OpenAI Completions API (GPT-3) - Rows“
Feld Beschreibung
Konfiguration auswählen Wählen Sie unter Konfiguration die Option OpenAI Completions (GPT-3) - Rows aus.
Autorisierung Geben Sie den OpenAI API-Schlüssel ein. Weitere Informationen finden Sie unter Generieren eines OpenAI API-Schlüssels.
OpenAI Request
  • OpenAI-Modell: Das verwendete Modell.

  • Temperature: Die zu verwendende Stichprobentemperatur.

  • Max Tokens: Dieser Parameter passt die maximale Anzahl der zu generierenden Token an. Er steuert also die Größe der Antwort, die generiert wird. Sie müssen in den meisten Fällen den Standardwert anpassen, damit die Verbindung Ihren Bedürfnissen entsprechend funktioniert.

  • Top P: Passt das Nucleus Sampling an. Dies kann als Alternative zum Temperature-Sampling geändert werden.

  • Frequency Penalty: Der Grad, in dem das Modell Strafabzüge bei neuen Token vornimmt, die wörtlich aus vorhandenen Token wiederholt werden.

  • Presence Penalty: Der Grad, in dem das Modell Strafabzüge bei neuen Token, die bereits im Text enthalten sind, bis zu der Stelle vornimmt, an der sie eingeführt werden.

  • User: Die Endbenutzer-ID, die beim Überwachen von Richtlinienverstößen nützlich sein kann.

Zuordnung

Geben Sie als Verknüpfungsfeld ein Feld aus der Eingabedatentabelle an, das einen eindeutigen Identifikator enthält.

Es ist erforderlich, dieses Feld in die Datenquelle einzuschließen, wenn eine Endpunktanforderung gestellt wird, damit die zurückgegebene Ergebnistabelle mittels eines Schlüssels mit der Quellfeldtabelle verknüpft wird. Das bezeichnete Feld wird als Feld in der Antwort zurückgegeben und ermöglicht die Verknüpfung der Antwort mit den Quelldaten im Datenmodell. Dabei kann es sich um ein beliebiges Feld mit einer eindeutigen ID handeln, entweder aus den Quelldaten oder als Teil des Tabellenladevorgangs.

Name Der Name der Verbindung. Wenn Sie keinen Namen eingeben, wird der Standardname verwendet.

OpenAI Completions API (GPT-3) - JSON Tables

Mit dieser Konfiguration wird eine Anfrage für jede Zeile gesendet, und als Antwort wird eine JSON-Datenliste erwartet. Der Konnektor konvertiert die JSON-Tabelle in eine Datentabelle im Qlik Datenmodell. Aufgrund der Art der OpenAI-Antworten sollte dieser Vorgang als experimentell betrachtet werden.

Diese Konfiguration kann im Ladeskript zum Zusammenfassen von Daten verwendet werden. Sie ist nicht für die Verwendung in Diagrammformeln vorgesehen. Abhängig davon, wie Sie die Frage stellen, wird möglicherweise nicht immer gültiges JSON zurückgegeben.

InformationshinweisGPT-Modelle sagen nicht immer korrekt vorher, wie JSON aussieht, z. B. wenn Zahlen Text ohne Anführungszeichen enthalten. In bestimmten Fällen kann eine Frage mit dem Zusatz „als JSON-Liste“ für die Anfrage im Ladeskript gestellt werden. In anderen Szenarien müssen Sie Ihre Frage viel präziser stellen, um das gewünschte Ergebnis zu erhalten.
Konfigurierbare Einstellungen für die Konfiguration „OpenAI Completions API (GPT-3) - JSON Tables“
Feld Beschreibung
Konfiguration auswählen Wählen Sie unter Konfiguration die Option OpenAI Completions (GPT-3) - JSON Tables aus.
Autorisierung Geben Sie den OpenAI API-Schlüssel ein. Weitere Informationen finden Sie unter Generieren eines OpenAI API-Schlüssels.
OpenAI Request
  • OpenAI-Modell: Das verwendete Modell.

  • Temperature: Die zu verwendende Stichprobentemperatur.

  • Max Tokens: Dieser Parameter passt die maximale Anzahl der zu generierenden Token an. Er steuert also die Größe der Antwort, die generiert wird. Sie müssen in den meisten Fällen den Standardwert anpassen, damit die Verbindung Ihren Bedürfnissen entsprechend funktioniert.

  • Top P: Passt das Nucleus Sampling an. Dies kann als Alternative zum Temperature-Sampling geändert werden.

  • Frequency Penalty: Der Grad, in dem das Modell Strafabzüge bei neuen Token vornimmt, die wörtlich aus vorhandenen Token wiederholt werden.

  • Presence Penalty: Der Grad, in dem das Modell Strafabzüge bei neuen Token, die bereits im Text enthalten sind, bis zu der Stelle vornimmt, an der sie eingeführt werden.

  • User: Die Endbenutzer-ID, die beim Überwachen von Richtlinienverstößen nützlich sein kann.

Zuordnung

Geben Sie als Verknüpfungsfeld ein Feld aus der Eingabedatentabelle an, das einen eindeutigen Identifikator enthält.

Es ist erforderlich, dieses Feld in die Datenquelle einzuschließen, wenn eine Endpunktanforderung gestellt wird, damit die zurückgegebene Ergebnistabelle mittels eines Schlüssels mit der Quellfeldtabelle verknüpft wird. Das bezeichnete Feld wird als Feld in der Antwort zurückgegeben und ermöglicht die Verknüpfung der Antwort mit den Quelldaten im Datenmodell. Dabei kann es sich um ein beliebiges Feld mit einer eindeutigen ID handeln, entweder aus den Quelldaten oder als Teil des Tabellenladevorgangs.

Name Der Name der Verbindung. Wenn Sie keinen Namen eingeben, wird der Standardname verwendet.

OpenAI Chat Completions API (GPT-3.5, GPT-4) - Rows

Diese Konfiguration funktioniert so ähnlich wie die Konfiguration OpenAI Completions API (GPT-3) - Rows. Sie sendet aber jede Datenzeile als Anfrage an die OpenAI Chat Completions API. In diesem Fall werden die Anfragen mit der „user“-Nachrichtenrolle gestellt, und jede Datenzeile aus Qlik wird als getrennte Anfrage gesendet.

InformationshinweisDas Senden von mehreren Zeilen als Chatkontext wird nicht unterstützt. Sie müssen alle Fragen in einer einzigen Anfragezeile unterbringen.

Diese Konfiguration kann sowohl im Datenladeskript als auch in den Diagrammformeln verwendet werden.

Die OpenAI-Dokumentation zur in dieser Konfiguration verwendeten API finden Sie unter Chat.

Konfigurierbare Einstellungen für die Konfiguration „OpenAI Completions API (GPT-3.5, GPT-4) - Rows“
Feld Beschreibung
Konfiguration auswählen Wählen Sie unter Konfiguration die Option OpenAI Completions (GPT-3.5, GPT-4) - Rows aus.
Autorisierung Geben Sie den OpenAI API-Schlüssel ein. Weitere Informationen finden Sie unter Generieren eines OpenAI API-Schlüssels.
OpenAI Request
  • OpenAI-Modell: Das verwendete Modell.

  • Temperature: Die zu verwendende Stichprobentemperatur.

  • Max Tokens: Dieser Parameter passt die maximale Anzahl der zu generierenden Token an. Er steuert also die Größe der Antwort, die generiert wird. Sie müssen in den meisten Fällen den Standardwert anpassen, damit die Verbindung Ihren Bedürfnissen entsprechend funktioniert.

  • Top P: Passt das Nucleus Sampling an. Dies kann als Alternative zum Temperature-Sampling geändert werden.

  • Frequency Penalty: Der Grad, in dem das Modell Strafabzüge bei neuen Token vornimmt, die wörtlich aus vorhandenen Token wiederholt werden.

  • Presence Penalty: Der Grad, in dem das Modell Strafabzüge bei neuen Token, die bereits im Text enthalten sind, bis zu der Stelle vornimmt, an der sie eingeführt werden.

  • User: Die Endbenutzer-ID, die beim Überwachen von Richtlinienverstößen nützlich sein kann.

Zuordnung

Geben Sie als Verknüpfungsfeld ein Feld aus der Eingabedatentabelle an, das einen eindeutigen Identifikator enthält.

Es ist erforderlich, dieses Feld in die Datenquelle einzuschließen, wenn eine Endpunktanforderung gestellt wird, damit die zurückgegebene Ergebnistabelle mittels eines Schlüssels mit der Quellfeldtabelle verknüpft wird. Das bezeichnete Feld wird als Feld in der Antwort zurückgegeben und ermöglicht die Verknüpfung der Antwort mit den Quelldaten im Datenmodell. Dabei kann es sich um ein beliebiges Feld mit einer eindeutigen ID handeln, entweder aus den Quelldaten oder als Teil des Tabellenladevorgangs.

Name Der Name der Verbindung. Wenn Sie keinen Namen eingeben, wird der Standardname verwendet.

OpenAI Embeddings:

Mit dieser Konfiguration werden Zeilen von Eingabetext an die OpenAI Embeddings API gesendet. OpenAI gibt eine getrennte Vektordarstellung für jede Eingabe zurück. Diese Vektordarstellung hat eine Form, die von ML-Modellen genutzt werden kann.

Die OpenAI-Dokumentation zur in dieser Konfiguration verwendeten API finden Sie unter Embeddings.

Konfigurierbare Einstellungen für die Konfiguration „OpenAI Embeddings“
Feld Beschreibung
Konfiguration auswählen Wählen Sie unter Konfiguration die Option OpenAI Embeddings aus.
Autorisierung Geben Sie den OpenAI API-Schlüssel ein. Weitere Informationen finden Sie unter Generieren eines OpenAI API-Schlüssels.
OpenAI Request
  • OpenAI-Modell: Das verwendete Modell.

  • User: Die Endbenutzer-ID, die beim Überwachen von Richtlinienverstößen nützlich sein kann.

Zuordnung

Geben Sie als Verknüpfungsfeld ein Feld aus der Eingabedatentabelle an, das einen eindeutigen Identifikator enthält.

Es ist erforderlich, dieses Feld in die Datenquelle einzuschließen, wenn eine Endpunktanforderung gestellt wird, damit die zurückgegebene Ergebnistabelle mittels eines Schlüssels mit der Quellfeldtabelle verknüpft wird. Das bezeichnete Feld wird als Feld in der Antwort zurückgegeben und ermöglicht die Verknüpfung der Antwort mit den Quelldaten im Datenmodell. Dabei kann es sich um ein beliebiges Feld mit einer eindeutigen ID handeln, entweder aus den Quelldaten oder als Teil des Tabellenladevorgangs.

Name Der Name der Verbindung. Wenn Sie keinen Namen eingeben, wird der Standardname verwendet.

Erstellen der Verbindung

Sie können eine Verbindung zum Analysekonnektor über das Aktivitätscenter Analysen, über den Dateneditor in einer vorhandenen App oder über den Skript in einem vorhandenen Skript erstellen. Folgen Sie den Schritten unten, um eine Verbindung zu erstellen.

  1. Erstellen Sie eine neue Qlik Sense App oder ein Skript. Öffnen Sie Dateneditor oder Skript.

  2. Klicken Sie auf Neue Verbindung erstellen.

  3. Wählen Sie unter Bereich den Bereich aus, in den sich die Verbindung befinden soll.

  4. Klicken Sie unter Analysequellen auf OpenAI.

  5. Wählen Sie die gewünschte Konfiguration aus. Weitere Informationen über die einzelnen verfügbaren Optionen finden Sie unter Konfigurationen und konfigurierbare Einstellungen.

  6. Geben Sie Ihren OpenAI API-Schlüssel ein. Weitere Informationen finden Sie unter Generieren eines OpenAI API-Schlüssels.

  7. Wählen Sie unter OpenAI-Modell das gewünschte OpenAI-Modell aus.

  8. Passen Sie die anderen Standardparameterwerte wie erforderlich an. Diese Parameter werden in der Dokumentation der OpenAI API beschrieben. Weitere Informationen finden Sie unter Chat, Completions und Embeddings.

    Weitere Beschreibungen der Parameter finden Sie unter Konfigurationen und konfigurierbare Einstellungen.

    InformationshinweisSie müssen in den meisten Fällen den Parameterwert für Max. Token anpassen, damit die Verbindung Ihren Bedürfnissen entsprechend funktioniert. Dieser Parameter steuert die Größe der Antwort, die generiert wird.
  9. Klicken Sie auf Erstellen.

Die Datenverbindung wird in dem Bereich gespeichert, in dem die App erstellt wurde. Daher kann sie in anderen Qlik Sense Apps und Skripten wiederverwendet werden. Sie ist auch unter Datenverbindungen in Dateneditor oder Skript aufgelistet.

Nachdem Sie die Verbindung erstellt haben, können Sie sie verwenden, um Daten mit den Anfragen und den Antworten der Plattform auf die Anfragen zu laden. Zudem können Sie sie in Diagrammformeln verwenden. Weitere Informationen finden Sie unter Auswählen und Laden von Daten in einer OpenAI-Verbindung und Verwenden von OpenAI-Verbindungen in Visualisierungsformeln.

Detaillierte Beispiele

Ausführliche Beispiele für die Arbeit mit dem OpenAI-Analysekonnektor finden Sie unter Tutorial – Verwenden des OpenAI-Analysekonnektors in Qlik Cloud.

Hat diese Seite Ihnen geholfen?

Wenn Sie Probleme mit dieser Seite oder ihren Inhalten feststellen – einen Tippfehler, einen fehlenden Schritt oder einen technischen Fehler –, teilen Sie uns bitte mit, wie wir uns verbessern können!