Esercizio - Applicare barriere per prevenire l'output di contenuti dannosi

Completato

Uno dei modi più efficaci per mitigare le risposte dannose dai modelli di intelligenza artificiale generativi in Microsoft Foundry consiste nell'usare i controlli di protezione. In questo esercizio si implementa un modello di intelligenza artificiale e si osserva l'effetto delle misure di sicurezza sulle risposte restituite.

Nota

Per completare questo laboratorio, è necessario un abbonamento a Azure.

Avviare l'esercizio e seguire le istruzioni.

Pulsante per l'avvio dell'esercizio.