Vai al contenuto principale Passa a contenuto complementare

Sorgente di analisi di Amazon Bedrock - Converse API

Il connettore di analisi Amazon Bedrock - Converse API fornisce l'accesso all'API universale di Amazon Bedrock per gli LLM (modelli linguistici di grandi dimensioni), fornendo funzionalità di generazione di testo. Utilizzare questo connettore per aggiungere alle app analitiche funzionalità contestuali e analitiche dai modelli di IA generativa ospitati da Amazon Bedrock.

Questo connettore comunica con l'API Converse, che fornisce l'accesso a numerosi modelli per la generazione di testo, compresa la famiglia di modelli di fondazione Amazon Nova. L'API Converse permette di utilizzare diverse funzionalità avanzate disponibili in Amazon Bedrock, tra cui i profili di inferenza interregionale (CRIS) e le barriere. Per un elenco dei modelli e delle funzionalità supportate dall'API Converse, consultare Modelli supportati e funzionalità del modello.

Con il connettore di analisi Amazon Bedrock - Converse API, è possibile inviare i dati dall'input dell'utente dell'app o dai dati caricati nello script a Amazon Bedrock. È possibile connettersi a questa sorgente di analisi dalla pagina Crea nel centro attività Analisi, Script o in un'app.

Prerequisiti

Per utilizzare questo connettore, è necessario essere un utente di AWS con una Chiave di accesso e una Chiave segreta. È necessario inoltre disporre dell'autorizzazione bedrock:invokemodel.

Abilitazione degli endpoint di ML in Qlik Cloud

Per utilizzare questo connettore, è necessario abilitare gli endpoint di machine learning nel centro attività Amministrazione. L'interruttore è posizionato nella sezione Controllo funzione delle Impostazioni.

Per ulteriori informazioni, vedere Abilitazione delle connessioni di analisi per gli endpoint di machine learning.

Limitazioni

  • Questo connettore ha un limite per le richieste di 25 righe per ogni richiesta, con dimensioni massime per il lotto di una riga inviata alla volta.

  • Le risorse disponibili sui servizi in cui il modello è stato distribuito influiranno e limiteranno le prestazioni nel ricaricamento di Qlik Sense e nella reattività dei grafici.

  • In uno scenario in cui un'applicazione viene ricaricata regolarmente, si consiglia di memorizzare nella cache le predizioni di machine learning usando un file QVD e inviare solo le nuove righe all'endpoint. Ciò migliorerà le prestazioni di ricaricamento dell'applicazione Qlik Sense e ridurrà il carico sull'endpoint modello.

  • Se si sta utilizzando un nome connessione relativo, e si decide di spostare la propria app da uno spazio condiviso a un altro spazio condiviso, o se si sposta la propria app da uno spazio condiviso al proprio spazio privato, ci vorrà del tempo affinché la connessione di analisi venga aggiornata per riflettere la nuova posizione nello spazio.

Hai trovato utile questa pagina?

Se riscontri problemi con questa pagina o con il suo contenuto – un errore di battitura, un passaggio mancante o un errore tecnico – ti pregiamo di farcelo sapere!