Esercizio - Applicare barriere per prevenire l'output di contenuti dannosi
Uno dei modi più efficaci per mitigare le risposte dannose dai modelli di intelligenza artificiale generativi in Microsoft Foundry consiste nell'usare i controlli di protezione. In questo esercizio si implementa un modello di intelligenza artificiale e si osserva l'effetto delle misure di sicurezza sulle risposte restituite.
Nota
Per completare questo laboratorio, è necessario un abbonamento a Azure.
Avviare l'esercizio e seguire le istruzioni.