Strumento LLM per i flussi nel portale di Microsoft Foundry (versione classica)

Si applica solo a:Portale di Foundry (versione classica). Questo articolo non è disponibile per il nuovo portale foundry. Altre informazioni sul nuovo portale.

Nota

I collegamenti in questo articolo potrebbero aprire contenuto nella nuova documentazione di Microsoft Foundry anziché nella documentazione di Foundry (versione classica) visualizzata.

Avviso

Lo sviluppo delle funzionalità di Prompt Flow è terminato il 20 aprile 2026. La funzionalità verrà ritirata completamente il 20 aprile 2027. Alla data di ritiro, Prompt Flow passa alla modalità di sola lettura. I flussi esistenti continueranno a funzionare fino a tale data.

Azione consigliata: Eseguire la migrazione dei carichi di lavoro di Prompt Flow a Microsoft Agent Framework prima del 20 aprile 2027.

Per usare modelli di linguaggio di grandi dimensioni (LLM) per l'elaborazione del linguaggio naturale, utilizzare lo strumento LLM Prompt Flow.

Suggerimento

Per gli incorporamenti per convertire il testo in rappresentazioni vettoriali dense per varie attività di elaborazione del linguaggio naturale, vedere Strumento di incorporamento.

Prerequisiti

Importante

Questo articolo fornisce il supporto legacy per i progetti basati su hub. Non funzionerà per i progetti Foundry. Vedere Come si conosce il tipo di progetto di cui si dispone?

nota di compatibilità SDK: gli esempi di codice richiedono una versione specifica Microsoft Foundry SDK. Se si verificano problemi di compatibilità, valutare la possibilità di eseguire la migrazione da un progetto basato su hub a un progetto Foundry.

Preparare un prompt come descritto nella documentazione dello strumento Prompt. Lo strumento LLM e lo strumento Prompt supportano entrambi i modelli Jinja . Per altre informazioni e procedure consigliate, vedere Tecniche di progettazione dei prompt.

Costruire con lo strumento LLM

  1. Creare o aprire un flusso in Microsoft Foundry. Per altre informazioni, vedere Creare un flusso.

  2. Selezionare + LLM per aggiungere lo strumento LLM al flusso.

    Screenshot che mostra lo strumento LLM aggiunto a un flusso nel portale Foundry.

  3. Selezionare la connessione a una delle risorse provisionate. Ad esempio, selezionare Default_AzureOpenAI.

  4. Nell'elenco a discesa di Api, selezionare chat o completamento.

  5. Immettere i valori per i parametri di input dello strumento LLM descritti nella tabella Input di completamento del testo. Se hai selezionato l'API di chat, vedere la tabella degli input della chat. Se è stata selezionata l'API di completamento, vedere la tabella degli input di completamento del testo. Per informazioni su come preparare l'input del prompt, vedere Prerequisiti.

  6. Aggiungi altri strumenti al flusso in base alle esigenze. In alternativa, selezionare Esegui per eseguire il flusso.

  7. Gli output sono descritti nella tabella Output.

Ingressi

Sono disponibili i parametri di input seguenti.

Input per il completamento del testo

Nome Digitare Descrizione Obbligatorio
richiesta Stringa Richiesta di testo per il modello linguistico.
modello, nome del deployment Stringa Modello linguistico da usare.
max_tokens Intero Numero massimo di token da generare nel completamento. Il valore predefinito è 16. No
Temperatura Galleggiante Casualità del testo generato. Il valore predefinito è 1. No
Fermare Elenco Sequenza di arresto per il testo generato. Il valore predefinito è Null. No
Suffisso Stringa Testo aggiunto alla fine del completamento. No
top_p Galleggiante Probabilità di usare la scelta principale dai token generati. Il valore predefinito è 1. No
logprobs Intero Numero di probabilità logaritmiche da generare. Il valore predefinito è Null. No
echo Boolean Il valore che indica se ripetere la richiesta nella risposta. Il valore predefinito è false. No
penalizzazione_presenza Galleggiante Valore che controlla il comportamento del modello relativo alle frasi ripetute. Il valore predefinito è 0. No
penalità_di_frequenza Galleggiante Valore che controlla il comportamento del modello relativo alla generazione di frasi rare. Il valore predefinito è 0. No
il meglio di Intero Numero dei migliori completamenti da generare. Il valore predefinito è 1. No
logit_bias Dizionario Distorsione logit per il modello linguistico. Il valore predefinito è un dizionario vuoto. No

Input di chat

Nome Digitare Descrizione Obbligatorio
richiesta Stringa Il prompt di testo a cui il modello linguistico dovrebbe rispondere.
modello, nome del deployment Stringa Modello linguistico da usare.
max_tokens Intero Numero massimo di token da generare nella risposta. Il valore predefinito è inf. No
Temperatura Galleggiante Casualità del testo generato. Il valore predefinito è 1. No
Fermare Elenco Sequenza di arresto per il testo generato. Il valore predefinito è Null. No
top_p Galleggiante Probabilità di usare la scelta principale dai token generati. Il valore predefinito è 1. No
penalizzazione_presenza Galleggiante Valore che controlla il comportamento del modello relativo alle frasi ripetute. Il valore predefinito è 0. No
penalità_di_frequenza Galleggiante Valore che controlla il comportamento del modello relativo alla generazione di frasi rare. Il valore predefinito è 0. No
logit_bias Dizionario Distorsione logit per il modello linguistico. Il valore predefinito è un dizionario vuoto. No

Output

L'output varia a seconda dell'API selezionata per gli input.

API Tipo di ritorno Descrizione
Completamento Stringa Testo di un completamento previsto.
Chat Stringa Testo di una risposta di conversazione.

Passaggi successivi