Trovare le risposte alle domande comuni su Foundry IQ.
Generale
Che cos'è Foundry IQ?
Foundry IQ consente agli agenti di accedere, elaborare e agire sulla conoscenza da qualsiasi luogo.
Con Foundry IQ si crea una knowledge base che si connette a una o più fonti di conoscenza. Il motore di recupero agentico elabora le query e un modello LLM (Large Language Model) facoltativo da Azure OpenAI all'interno dei Foundry Models aggiunge la pianificazione e il ragionamento delle query. Gli agenti costruiti nel servizio Foundry Agent chiamano la Knowledge Base per recuperare il contenuto pertinente.
Qual è la differenza tra Foundry IQ e recupero agentico?
Foundry IQ è costituito da basi di conoscenza, fonti di conoscenza e integrazioni native con Azure OpenAI nei modelli Foundry e nel servizio agente Foundry. Il portale di Microsoft Foundry (nuovo) offre un'esperienza di configurazione end-to-end semplificata, ma è anche possibile creare i componenti di IQ Foundry a livello di codice.
Il recupero agentico è il motore di recupero con più query che supporta le knowledge base di IQ Foundry. Per le soluzioni personalizzate, è possibile usare il recupero agentico direttamente tramite le API Azure AI Search.
In che modo Foundry IQ è diverso dai modelli RAG esistenti o da Azure OpenAI sui tuoi dati?
Una Knowledge Base di IQ Foundry consente l'accesso a più origini, eliminando la necessità di connettere ogni agente a ogni origine singolarmente.
Il motore di recupero agentico pianifica quali fonti interrogare ed esegue una ricerca iterativa se i risultati iniziali non soddisfano gli standard di rilevanza. L'indicizzazione e la sincronizzazione dei dati vengono attivate automaticamente. La ricerca iterativa dipende dalla specifica di un tentativo di ragionamento medio di recupero nella Knowledge Base o in base a una richiesta.
Componenti e requisiti
È necessario Azure AI Search per Foundry IQ?
Sì. Foundry IQ è basato sulle capacità di recupero agentico di Azure AI Search. Per usare Foundry IQ, è necessario creare una Knowledge Base in Azure AI Search.
Il servizio agente Foundry è obbligatorio per Foundry IQ?
No. È possibile chiamare knowledge base dal servizio agente Foundry, Microsoft Agent Framework o da qualsiasi applicazione che supporta le API della Knowledge Base da Azure AI Search. Il servizio agente Foundry offre tuttavia una piattaforma di hosting dell'agente chiavi in mano con supporto predefinito per le knowledge base di Foundry IQ.
IQ Foundry e il recupero agentico hanno una dipendenza obbligatoria dagli LLM?
L'utilizzo LLM per la pianificazione delle query è facoltativo, ma consigliato. Senza LLM, è possibile usare uno sforzo di ragionamento minimo nel recupero agentico per unire i risultati da più query tra le origini delle conoscenze.
Per trarre vantaggio dall'elaborazione parallela di più sottoquery, è necessaria la pianificazione delle query LLM. Il motore di recupero agentico usa la pianificazione delle query LLM nelle attività di ragionamento di medio e basso livello per un recupero più accurato.
Quali modelli LLM sono supportati per la pianificazione delle query?
Per la pianificazione delle query sono supportati solo i modelli gpt-4o, gpt-4.1 e gpt-5 di Azure OpenAI nei modelli Foundry. Per l'elenco completo, vedere Modelli supportati. Specificare la distribuzione del modello quando si crea la Knowledge Base.
Knowledge base e origini delle informazioni
Che cos'è una Knowledge Base?
Una base di conoscenza è un oggetto principale che raggruppa una o più fonti di conoscenza in un singolo endpoint. La configurazione controlla la modalità di selezione delle origini (tramite istruzioni di recupero e ragionamento) e il modo in cui vengono restituiti i risultati (tramite la modalità di output e le istruzioni di risposta). Una connessione LLM consente la pianificazione delle query e la sintesi delle risposte.
In fase di query, il motore di recupero agentico usa questa configurazione per elaborare le richieste. I controlli di accesso a livello di utente vengono applicati solo quando l'origine conoscenze supporta le autorizzazioni a livello di documento e quando tali autorizzazioni sono state configurate in modo esplicito per la sincronizzazione. A meno che il supporto per le autorizzazioni utente out-of-the-box non sia indicato in modo esplicito nella documentazione della fonte di conoscenza, i controlli di accesso a livello di documento non vengono rispettati automaticamente.
Quali fonti di informazioni sono supportate?
Esistono due tipi di fonti di conoscenza:
Le fonti di conoscenze indicizzate inseriscono i dati in un indice di ricerca e gestiscono automaticamente le suddivisioni in blocchi, vettorializzazione, estrazione dei metadati e sincronizzazione dell'elenco di controllo di accesso (ACL). Le origini indicizzate supportate includono Archiviazione BLOB di Azure, OneLake, SharePoint e indici di ricerca esistenti.
Le origini delle conoscenze remote non inseriscono o archiviano i dati. Eseguono query su richiesta al sistema esterno in fase di recupero. Le fonti remote supportate includono SharePoint (tramite l'API di recupero Copilot) e il web (tramite l'integrazione con Bing).
Con quale frequenza vengono aggiornati i dati indicizzati?
Le fonti di conoscenza indicizzate utilizzano gli indicizzatori Azure AI Search per l'acquisizione dei dati. È possibile pianificare esecuzioni ricorrenti dell'indicizzatore per l'aggiornamento incrementale dei dati. La frequenza dipende dalla configurazione della pianificazione dell'indicizzatore.
Le fonti di conoscenza remota interrogano i sistemi esterni su richiesta, mantenendo così i dati sempre aggiornati.
Recupero agentico
Che cos'è il recupero agentico?
Il recupero agentico è il motore di recupero che elabora le richieste rispetto a una knowledge base.
Seleziona le origini delle informazioni su cui eseguire query, indirizza le richieste in modo appropriato e può eseguire automaticamente l'iterazione quando i risultati iniziali sono incompleti. Quando la knowledge base include un LLM, il recupero agentico esegue anche la pianificazione delle query e un ragionamento di livello superiore per perfezionare il processo di ricerca. È possibile controllare il costo e la latenza del processo di ricerca impostando lo sforzo di ragionamento del recupero sulla knowledge base.
I benchmark mostrano che il recupero agentico raggiunge una qualità di risposta superiore di circa 36% rispetto alla tradizionale RAG a singolo passaggio.
Che cos'è la pianificazione delle query nel recupero agentico?
La pianificazione delle query è il processo in cui un LLM suddivide una query complessa in sottoquery più piccole e più mirate per una copertura più ampia del corpus di ricerca. Include anche la logica per la selezione di una fonte di conoscenza rispetto ad un'altra.
È possibile influenzare la selezione delle origini di conoscenza aggiungendo descrizioni alle origini di conoscenza indicizzate e istruzioni di recupero alla Base di Conoscenza. Ad esempio, è possibile specificare "usare l'indice del manuale dei dipendenti per domande sul time off" e "usare l'indice di assicurazione sanitaria per domande sulla copertura medica".
Come si richiama la pianificazione delle query?
La pianificazione delle query viene richiamata quando si specifica l'attività di ragionamento per il recupero di medio o basso livello in una knowledge base.
Qual è lo sforzo di ragionamento per il recupero?
L'attività di ragionamento per il recupero determina la quantità di pianificazione basata su LLM durante il recupero agentico. I livelli vanno da minimo a medio, influenzando in modo profondo il modo in cui il sistema interpreta la query, seleziona le origini e decide se sono necessari più passaggi di recupero.
Quali sono i limiti per ogni livello di sforzo di ragionamento del recupero?
I limiti variano in base al livello di sforzo di ragionamento:
Minimo: fino a 10 origini di conoscenza. Nessuna elaborazione LLM, nessuna pianificazione delle query e nessuna sintesi delle risposte.
Basso: fino a tre fonti di conoscenza e tre sottoquery. Supporta la sintesi delle risposte con un budget di 5.000 token.
Medio: fino a cinque fonti di conoscenza e cinque sottoquery. Supporta la ricerca iterativa e la sintesi delle risposte con un budget di 10.000 token.
Per altre informazioni, vedere Limiti di recupero agentico.
Che cos'è la sintesi delle risposte? È consigliabile usarlo per una Knowledge Base di IQ Foundry?
La sintesi delle risposte usa un LLM per generare una risposta completa in linguaggio naturale in base al contenuto recuperato. La sintesi delle risposte è necessaria per le origini delle conoscenze Web.
Per la maggior parte degli scenari di IQ foundry, usare i dati estrattivi anziché la sintesi delle risposte. I dati estrattivi restituiscono contenuto non elaborato che gli agenti possono ragionare e incorporare nelle risposte. Prenotare la sintesi delle risposte per le applicazioni autonome in cui l'output del processo di recupero passa direttamente agli utenti senza elaborazione da parte dell'agente.
Disponibilità e prezzi
Dove è disponibile Foundry IQ? Come viene fatturata?
Foundry IQ è soggetto alla disponibilità regionale e alla fatturazione dei servizi sottostanti: Azure AI Search e, se applicabile, Azure OpenAI in Foundry Models.
Foundry IQ è gratuito da usare?
Azure AI Search offre un piano tariffario gratuito e un'allocazione di token gratuita per il recupero agentico. Il Servizio agenti Foundry non addebita le istanze dell'agente.
Dopo aver esaurito l'allocazione gratuita, il recupero agentico viene fatturato in base al consumo di token in Azure AI Search. L'utilizzo di LLM per la pianificazione delle query e la sintesi delle risposte comporta addebiti separati da parte di Azure OpenAI nei Modelli Foundry.
Sicurezza e governance
In che modo Foundry IQ gestisce le autorizzazioni?
L'imposizione delle autorizzazioni varia in base all'origine delle informazioni. A seconda dell'origine dati, le fonti di conoscenza indicizzate possono supportare la sicurezza a livello di documento tramite ACL, controllo degli accessi in base al ruolo o entrambi. In fase di query, i risultati vengono filtrati in base all'identità dell'utente.
Le fonti delle conoscenze remote di SharePoint impongono le autorizzazioni direttamente tramite l'API di recupero di Copilot, con supporto predefinito per ACL ed etichette di riservatezza di Microsoft Purview.
Quali metodi di autenticazione sono supportati?
Per le connessioni tra Azure AI Search e altri servizi di Azure (ad esempio Azure OpenAI o Archiviazione BLOB di Azure), usare le identità gestite con chiavi API o Microsoft Entra ID (scelta consigliata).
Le fonti di conoscenza remote di SharePoint necessitano che gli utenti finali abbiano una licenza di Copilot valida.
Risoluzione dei problemi
Perché l'agente non restituisce risultati dalla knowledge base?
Le cause comuni includono:
- Mancata invocazione dello strumento nelle istruzioni dell'agente.
- Problemi di autorizzazione tra l'agente e la Knowledge Base.
- Configurazione della connessione al progetto non corretta.
- Origini di conoscenza vuote o non configurate correttamente.
Per informazioni sull'isolamento del problema, vedere Risoluzione dei problemi.
Come si esegue il debug delle query di recupero agentiche?
Usare il playground per la chat nel portale di Azure, che mostra i piani delle query, le sottoquery e i passaggi del recupero per la knowledge base. Abilitare la registrazione diagnostica per i dati dettagliati di richiesta/risposta.
Prodotti correlati
In che modo Foundry IQ è correlato a Fabric IQ and Work IQ?
Microsoft offre tre carichi di lavoro di IQ per sistemi nativi dell'agente: Fabric IQ for business analytics, Work IQ for Microsoft 365 collaboration e Foundry IQ for enterprise knowledge.
Ogni carico di lavoro di IQ è indipendente, ma possono lavorare insieme per rispondere praticamente a qualsiasi domanda specifica dell'organizzazione proveniente da un agente.
Qual è la differenza tra le fonti di conoscenza di Copilot e le fonti di conoscenza di Foundry IQ?
Il concetto è lo stesso: la connessione degli agenti ai dati aziendali. Tuttavia, le origini dati supportate variano in base alla piattaforma e non sono interoperabili. In altre parole, non si possono usare le fonti di conoscenza di Foundry IQ in Copilot e viceversa.