Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Si applica solo a:Portale di Foundry (versione classica). Questo articolo non è disponibile per il nuovo portale foundry.
Altre informazioni sul nuovo portale.
Nota
I collegamenti in questo articolo potrebbero aprire contenuto nella nuova documentazione di Microsoft Foundry anziché nella documentazione di Foundry (versione classica) visualizzata.
Importante
Gli elementi contrassegnati (anteprima) in questo articolo sono attualmente in anteprima pubblica. Questa anteprima viene fornita senza un contratto di servizio e non è consigliabile per i carichi di lavoro di produzione. Alcune funzionalità potrebbero non essere supportate o potrebbero avere funzionalità limitate. Per altre informazioni, vedere Condizioni supplementari per l'utilizzo delle anteprime di Microsoft Azure.
In questo articolo vengono fornite informazioni sulle funzionalità di sicurezza dei contenuti per i modelli del catalogo di modelli distribuiti usando distribuzioni di API serverless.
Impostazioni predefinite del filtro contenuto
Azure IA usa una configurazione predefinita di Sicurezza dei contenuti di Azure AI filtri per il contenuto per rilevare contenuti dannosi in quattro categorie, tra cui odio e equità, autolesionismo, sessuale e violenza per i modelli distribuiti tramite distribuzioni api serverless. Per altre informazioni sul filtro del contenuto, vedere Informazioni sulle categorie di danni.
La configurazione di filtro del contenuto predefinita per i modelli di testo è impostata per filtrare in base alla soglia di gravità media, filtrando il contenuto rilevato a questo livello o superiore. Per i modelli di immagine, la configurazione di filtro del contenuto predefinita viene impostata alla soglia di configurazione bassa, filtrando a questo livello o superiore. Per i modelli distribuiti usando i modelli
Suggerimento
Il filtro del contenuto non è disponibile per determinati tipi di modello distribuiti tramite distribuzioni api serverless. Questi tipi di modello includono l'incorporamento di modelli e modelli time series.
Il filtro del contenuto si verifica in modo sincrono quando i processi del servizio richiedono di generare contenuto. È possibile che vengano fatturati separatamente in base ai prezzi Sicurezza dei contenuti di Azure AI per tale utilizzo. È possibile disabilitare il filtro del contenuto per singoli endpoint serverless:
- Quando si distribuisce per la prima volta un modello linguistico
- Più tardi, selezionando l'interruttore di filtro dei contenuti nella pagina dei dettagli della distribuzione
Supponiamo che tu decida di usare un'API diversa dall'API di inferenza del modello per lavorare con un modello distribuito tramite una distribuzione API senza server. In una situazione di questo tipo, il filtro del contenuto (anteprima) non è abilitato a meno che non venga implementato separatamente usando Sicurezza dei contenuti di Azure AI. Per iniziare a usare Sicurezza dei contenuti di Azure AI, vedere Quickstart: Analizzare il contenuto del testo. Si rischia di esporre gli utenti a contenuti dannosi se non si usa il filtro del contenuto (anteprima) quando si usano modelli distribuiti tramite distribuzioni api serverless.
Comprendere le categorie di danni
Categorie di danni
| Categoria | Descrizione | Termine API |
|---|---|---|
| Odio e equità | I danni all'odio e all'equità si riferiscono a qualsiasi contenuto che attacca o usa un linguaggio discriminatorio con riferimento a una persona o a un gruppo di identità basato su determinati attributi diversi di questi gruppi. Ciò include, ma non è limitato a:
|
Hate |
| Sessuale | Il linguaggio sessuale descrive il linguaggio correlato a organi anatomici e genitali, relazioni romantiche e atti sessuali, atti rappresentati in termini erotici o affettuosi, inclusi quelli rappresentati come un assalto o un atto violento sessuale forzato contro la volontà di uno. Ciò include, ma non è limitato a:
|
Sexual |
| Violenza | Il termine "violenza" si riferisce al linguaggio relativo alle azioni fisiche destinate a ferire, danneggiare o uccidere qualcuno o qualcosa; descrive armi, pistole ed entità correlate. Ciò include, ma non è limitato a:
|
Violence |
| Autolesionismo | L'autolesionismo si riferisce al linguaggio legato ad azioni fisiche destinate a ferire, danneggiare intenzionalmente il proprio corpo o addirittura uccidersi. Ciò include, ma non è limitato a:
|
SelfHarm |
| Adesione al compito | Assicura che gli agenti di intelligenza artificiale si comportino in modo coerente in linea con le istruzioni utente e gli obiettivi delle attività. Identifica le discrepanze, ad esempio le chiamate allo strumento non allineate, l'input o l'output dello strumento non corretto rispetto alla finalità dell'utente e le incoerenze tra le risposte e l'input del cliente. |
Livelli di gravità
| Livello | Descrizione |
|---|---|
| Sicuro | Il contenuto potrebbe essere correlato a violenza, autolesionismo, sesso o categorie di odio. Tuttavia, i termini sono utilizzati in generale, giornalistica, scientifica, medica e simili contesti professionali, che sono appropriati per la maggior parte dei destinatari. |
| Basso | Contenuti che esprimono opinioni pregiudizievoli o di giudizio, includono l'uso offensivo del linguaggio, la creazione di stereotipi, esempi di utilizzo che esplorano un mondo fittizio (ad esempio, giochi, letteratura) e rappresentazioni a bassa intensità. |
| Medio | Contenuti che usano linguaggio offensivo, insultante, intimidatorio o denigratorio verso gruppi di identità specifici, includono rappresentazioni di ricerca e attuazione di istruzioni dannose, fantasie, glorificazione, promozione di danni a media intensità. |
| Alto | Contenuto che visualizza istruzioni esplicite e severe dannose, azioni, danni o abusi; include l'approvazione, la glorificazione o la promozione di gravi atti dannosi, forme estreme o illegali di danni, radicalizzazione o scambio di potere o abuso nonsensuale. |
Come vengono calcolati gli addebiti
I dettagli dei prezzi sono visualizzabili in prezzi di Sicurezza dei contenuti di Azure AI. Gli addebiti vengono addebitati quando il Sicurezza dei contenuti di Azure AI convalida la richiesta o il completamento. Se Sicurezza dei contenuti di Azure AI blocca la richiesta o il completamento, vengono addebitati sia la valutazione del contenuto che le chiamate di inferenza.