Strumento Prompt
Requisiti dei ruoli utente
Ruolo utente* | Accesso a strumento/funzione |
|---|---|
Utente completo | ✓ |
Utente base | X |
*Si applica ai clienti che utilizzano le edizioni Professional ed Enterprise di Alteryx One con Designer versione 2025.1 o successiva.
Lo strumento Prompt consente di inviare prompt a un modello linguistico di grandi dimensioni (LLM) e ricevere la relativa risposta sotto forma di output. Puoi anche configurare i parametri LLM per ottimizzare l'output del modello.
Componenti dello strumento
Lo strumento Prompt ha 3 ancoraggi (2 di input e 1 di output):
Ancoraggio di input M (facoltativo): l'ancoraggio di input M permette di sfruttare le impostazioni di connessione al modello di
Strumento Sostituzione LLM. In alternativa, puoi configurare una connessione utilizzando questo strumento.Ancoraggio di input D (facoltativo): usa l'ancoraggio di input D per connettere i dati che desideri aggiungere al prompt. Lo strumento Prompt accetta tipi di dati standard (ad esempio, Stringa, Numerico e Data/ora), oltre ai dati BLOB dello
Strumento Input Blob.Ancoraggio di output: usa l'ancoraggio di output per passare a valle la risposta del modello.
Configurazione dello strumento
Connessione al servizio Modelli AI in Alteryx One
Quando non utilizzi lo strumento Sostituzione LLM per fornire le impostazioni di connessione del modello allo strumento Prompt, devi impostare la connessione al servizio Modelli AI in Alteryx One.
Per la configurazione iniziale dello strumento Prompt, crea un collegamento Alteryx allo spazio di lavoro Alteryx One. Se hai effettuato l'accesso a Designer tramite Alteryx One, dovresti vedere una connessione già impostata per quello spazio di lavoro.
Connessione LLM
Importante
Puoi selezionare un modello LLM solo se un ha già creato una connessione LLM in Alteryx One.
Usa il menu a discesa Provider LLM per selezionare il provider da utilizzare per il tuo flusso di lavoro. Se hai connesso lo strumento Sostituzione LLM, questa opzione è disabilitata.
Utilizza il menu a discesa Seleziona modello per selezionare un modello fornito dal provider LLM. Se hai connesso lo strumento Sostituzione LLM e selezionato un modello specifico, questa opzione è disabilitata.
Impostazioni prompt
Usa la sezione Impostazioni prompt per comporre il prompt e configurare le colonne dati da associare al prompt e alla risposta.
Inserisci il tuo prompt nel campo Template prompt. Per stimare il conteggio dei token del prompt, vedi Conteggio token nella parte inferiore del campo Template prompt. Il conteggio dei token non tiene conto dei token aggiuntivi che potrebbero provenire dalle colonne dati inserite.
Per eseguire un'analisi più avanzata, includi i dati a monte nel tuo prompt. Lo strumento Prompt crea un nuovo prompt per ogni riga di dati in entrata, dopodiché invia il prompt LLM per ciascuna di queste righe.
Per inserire una colonna di dati di input puoi…
Inserire una parentesi quadra aperta (
[) nel campo di testo, così da visualizzare il menu di selezione delle colonne. Puoi anche digitare il nome della colonna racchiuso fra parentesi quadre ([]).Selezionare una colonna dal menu a discesa Inserisci campo.
Per associare dati non strutturati, come file di immagini o PDF, seleziona la colonna che contiene tali dati dal menu a discesa Associa colonne non testuali. Usa uno
Strumento Input Blob per inserire le immagini e i PDF nel flusso di lavoro.Nota
Il supporto dei dati non strutturati, come immagini e PDF, dipende dal provider LLM e dal modello selezionato. Per informazioni dettagliate sui tipi di dati non strutturati o multimodali supportati, consulta la documentazione del provider LLM.
Inserisci un valore in Nome colonna risposta. ovvero la colonna che contiene la risposta del modello LLM al prompt.
Esegui il flusso di lavoro.
Prompt Builder
Prompt Builder permette di testare velocemente le varie configurazioni di prompt e modello, per poi confrontare i risultati con la cronologia dei prompt. Per sperimentare vari modelli e configurazioni di modello, esegui il flusso di lavoro con il prompt iniziale, quindi seleziona Perfeziona e sperimenta i criteri nel generatore di prompt per aprire la finestra del generatore di prompt.
Importante
Il generatore di prompt richiede dati connessi all'ancoraggio di input D.
Scheda Spazio di lavoro prompt
La scheda Spazio di lavoro prompt consente di inserire i prompt e aggiornare le configurazioni di modello:
Utilizza il menu a discesa Seleziona modello per selezionare un modello fornito dal provider LLM.
Inserisci il Numero di record da testare. Se utilizzi un set di dati di grandi dimensioni, puoi usare questa impostazione per limitare il numero di record da testare con il prompt.
Configura i parametri del modello per Temperatura, Numero massimo di token di output e TopP. Per le descrizioni dei parametri, consulta la sezione Impostazioni avanzate di configurazione del modello.
Inserisci o aggiorna il tuo prompt nel campo di testo Template prompt.
Suggerimento
Per ricevere assistenza con la creazione di un prompt pronto all'uso, seleziona Genera un prompt per me, quindi descrivi l'attività da svolgere. Per utilizzare questa funzione, il tuo account Alteryx One deve avere accesso ad Alteryx Copilot.
Seleziona Test ed esecuzione per visualizzare le risposte di esempio per ogni riga.
Se le risposte al nuovo prompt dovessero risultare soddisfacenti, seleziona Salva prompt nell'area di disegno per aggiornare lo strumento Prompt con il nuovo prompt e le nuove configurazioni del modello.
Scheda Cronologia
La scheda Cronologia consente di visualizzare i prompt precedenti, i parametri del modello e una risposta di esempio.
Per ciascun prompt precedente, puoi scegliere…
Aggiungi all'area di disegno: aggiorna lo strumento Prompt con il prompt selezionato e i parametri di modello associati.
Modifica prompt: torna alla scheda Configurazione che contiene il prompt selezionato e i parametri di modello associati. Per trovare questa opzione, seleziona il menu con i 3 puntini accanto ad Aggiungi all'area di disegno.
Scarica risultati: salva un file CSV contenente il prompt e i parametri del modello per la riga corrente nella scheda Cronologia.
Avvertimento
Ricorda di salvare il prompt prima di uscire dalla finestra di Prompt Builder. Quando selezioni Chiudi, la cronologia dei prompt viene cancellata.
Gestione degli errori
Quando si verifica un errore, seleziona l'opzione di gestione degli errori dal menu a discesa In caso di errore:
Errore - Interrompi elaborazione record: genera un errore nella finestra Risultati e interrompe l'elaborazione dei record.
Avviso - Continua elaborazione record: genera un avviso nella finestra Risultati, ma continua l'elaborazione dei record.
Ignora - Continua elaborazione record: ignora le colonne che differiscono e continua l'elaborazione dei record.
Impostazioni avanzate di configurazione del modello
La sezione Impostazioni avanzate di configurazione del modello consente di configurare i parametri del modello.
Temperatura: utilizza un numero compreso fra 0 e 2 per controllare il livello di casualità dell'output del modello. Il valore predefinito è 1.
I valori inferiori forniscono risposte più affidabili e coerenti.
I valori superiori forniscono risposte più creative e casuali, che potrebbero però risultare illogiche.
N. max token di output: numero massimo di token che il modello LLM può includere in una risposta. Ogni token contiene circa 3/4 di parola. I token sono le unità di base per l'input e l'output dei modelli LLM. Sono frammenti di testo, che possono essere costituiti da parole, gruppi di caratteri o combinazioni di parole e segni di punteggiatura. Per informazioni sul numero massimo di token di output disponibili, consulta il provider LLM e il modello specifico.
TopP: numero compreso fra 0 e 1, che controlla i token di output da cui il modello estrae i campioni. Il modello seleziona i campioni fra i token più probabili e quelli meno probabili, di modo che la somma delle probabilità sia uguale al valore di TopP. Se ad esempio il valore di TopP è 0,8 e sono disponibili 3 token con probabilità 0,5, 0,3 e 0,2, il modello selezionerà solo quelli con probabilità 0,5 e 0,3, la cui somma è 0,8. I valori inferiori forniscono risposte più coerenti, mentre quelli superiori forniscono risposte più casuali.
Output
Lo strumento restituisce 2 colonne di dati con formato Stringa.
Colonna prompt LLM: contiene il tuo prompt.
Colonna risposta LLM: contiene la risposta fornita dal provider LLM e dal modello.
