Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Si applica solo a:Portale di Foundry (versione classica). Questo articolo non è disponibile per il nuovo portale foundry.
Altre informazioni sul nuovo portale.
Nota
I collegamenti in questo articolo potrebbero aprire contenuto nella nuova documentazione di Microsoft Foundry anziché nella documentazione di Foundry (versione classica) visualizzata.
Avviso
Lo sviluppo delle funzionalità di Prompt Flow è terminato il 20 aprile 2026. La funzionalità verrà ritirata completamente il 20 aprile 2027. Alla data di ritiro, Prompt Flow passa alla modalità di sola lettura. I flussi esistenti continueranno a funzionare fino a tale data.
Azione consigliata: Eseguire la migrazione dei carichi di lavoro di Prompt Flow a Microsoft Agent Framework prima del 20 aprile 2027.
Per usare modelli di linguaggio di grandi dimensioni (LLM) per l'elaborazione del linguaggio naturale, utilizzare lo strumento LLM Prompt Flow.
Suggerimento
Per gli incorporamenti per convertire il testo in rappresentazioni vettoriali dense per varie attività di elaborazione del linguaggio naturale, vedere Strumento di incorporamento.
Prerequisiti
Importante
Questo articolo fornisce il supporto legacy per i progetti basati su hub. Non funzionerà per i progetti Foundry. Vedere Come si conosce il tipo di progetto di cui si dispone?
nota di compatibilità SDK: gli esempi di codice richiedono una versione specifica Microsoft Foundry SDK. Se si verificano problemi di compatibilità, valutare la possibilità di eseguire la migrazione da un progetto basato su hub a un progetto Foundry.
- Un account Azure con una sottoscrizione attiva. Se non ne hai uno, crea un account gratuito Azure, che include una sottoscrizione di valutazione gratuita.
- Se non ne hai uno, crea un progetto basato su hub.
Preparare un prompt come descritto nella documentazione dello strumento Prompt. Lo strumento LLM e lo strumento Prompt supportano entrambi i modelli Jinja . Per altre informazioni e procedure consigliate, vedere Tecniche di progettazione dei prompt.
Costruire con lo strumento LLM
Creare o aprire un flusso in Microsoft Foundry. Per altre informazioni, vedere Creare un flusso.
Selezionare + LLM per aggiungere lo strumento LLM al flusso.
Selezionare la connessione a una delle risorse provisionate. Ad esempio, selezionare Default_AzureOpenAI.
Nell'elenco a discesa di Api, selezionare chat o completamento.
Immettere i valori per i parametri di input dello strumento LLM descritti nella tabella Input di completamento del testo. Se hai selezionato l'API di chat, vedere la tabella degli input della chat. Se è stata selezionata l'API di completamento, vedere la tabella degli input di completamento del testo. Per informazioni su come preparare l'input del prompt, vedere Prerequisiti.
Aggiungi altri strumenti al flusso in base alle esigenze. In alternativa, selezionare Esegui per eseguire il flusso.
Gli output sono descritti nella tabella Output.
Ingressi
Sono disponibili i parametri di input seguenti.
Input per il completamento del testo
| Nome | Digitare | Descrizione | Obbligatorio |
|---|---|---|---|
| richiesta | Stringa | Richiesta di testo per il modello linguistico. | Sì |
| modello, nome del deployment | Stringa | Modello linguistico da usare. | Sì |
| max_tokens | Intero | Numero massimo di token da generare nel completamento. Il valore predefinito è 16. | No |
| Temperatura | Galleggiante | Casualità del testo generato. Il valore predefinito è 1. | No |
| Fermare | Elenco | Sequenza di arresto per il testo generato. Il valore predefinito è Null. | No |
| Suffisso | Stringa | Testo aggiunto alla fine del completamento. | No |
| top_p | Galleggiante | Probabilità di usare la scelta principale dai token generati. Il valore predefinito è 1. | No |
| logprobs | Intero | Numero di probabilità logaritmiche da generare. Il valore predefinito è Null. | No |
| echo | Boolean | Il valore che indica se ripetere la richiesta nella risposta. Il valore predefinito è false. | No |
| penalizzazione_presenza | Galleggiante | Valore che controlla il comportamento del modello relativo alle frasi ripetute. Il valore predefinito è 0. | No |
| penalità_di_frequenza | Galleggiante | Valore che controlla il comportamento del modello relativo alla generazione di frasi rare. Il valore predefinito è 0. | No |
| il meglio di | Intero | Numero dei migliori completamenti da generare. Il valore predefinito è 1. | No |
| logit_bias | Dizionario | Distorsione logit per il modello linguistico. Il valore predefinito è un dizionario vuoto. | No |
Input di chat
| Nome | Digitare | Descrizione | Obbligatorio |
|---|---|---|---|
| richiesta | Stringa | Il prompt di testo a cui il modello linguistico dovrebbe rispondere. | Sì |
| modello, nome del deployment | Stringa | Modello linguistico da usare. | Sì |
| max_tokens | Intero | Numero massimo di token da generare nella risposta. Il valore predefinito è inf. | No |
| Temperatura | Galleggiante | Casualità del testo generato. Il valore predefinito è 1. | No |
| Fermare | Elenco | Sequenza di arresto per il testo generato. Il valore predefinito è Null. | No |
| top_p | Galleggiante | Probabilità di usare la scelta principale dai token generati. Il valore predefinito è 1. | No |
| penalizzazione_presenza | Galleggiante | Valore che controlla il comportamento del modello relativo alle frasi ripetute. Il valore predefinito è 0. | No |
| penalità_di_frequenza | Galleggiante | Valore che controlla il comportamento del modello relativo alla generazione di frasi rare. Il valore predefinito è 0. | No |
| logit_bias | Dizionario | Distorsione logit per il modello linguistico. Il valore predefinito è un dizionario vuoto. | No |
Output
L'output varia a seconda dell'API selezionata per gli input.
| API | Tipo di ritorno | Descrizione |
|---|---|---|
| Completamento | Stringa | Testo di un completamento previsto. |
| Chat | Stringa | Testo di una risposta di conversazione. |