Bemærk
Adgang til denne side kræver godkendelse. Du kan prøve at logge på eller ændre mapper.
Adgang til denne side kræver godkendelse. Du kan prøve at ændre mapper.
Hentning af Augmented Generation (RAG) i Microsoft Copilot Studio kombinerer ræsonneringsfunktionerne i sprogmodeller med pålidelig organisationsspecifik viden. Det gør det muligt for agenter at producere nøjagtige, kontekstuelle og jordnære svar baseret på virksomhedens indhold i stedet for udelukkende at stole på modelhukommelse.
I denne artikel lærer du, hvordan du:
- Forstå, hvordan RAG forbedrer AI's pålidelighed og jordforbindelse.
- Beskriv, hvordan Copilot Studio henter og syntetiserer viden.
- Identificer de understøttede videnskilder og deres begrænsninger.
- Anerkend governance, compliance og AI-sikkerhedshensyn.
- Anvend RAG-koncepter, når du designer agenter i virksomhedsmiljøer.
Introduktion til RAG
RAG er et designmønster, der forbedrer AI's nøjagtighed ved at kombinere to funktioner:
- Informationssøgning: Søgning i virksomhedens datakilder.
- Tekstgenerering: Syntetisere den hentede information ved brug af en sprogmodel.
Denne tilgang reducerer forkert information, øger tilliden og genererer svar, der er forankret i reelt organisatorisk indhold.
RAG-arkitektur i Copilot Studio
Copilot Studios RAG-pipeline er bygget på Azure AI services og integreres tæt med Microsofts tillid, overholdelse af angivne standarder og sikkerhedsgrænser.
Kernekomponenter:
- Copilot Studio runtime: Administrerer samtalepipelinen
- Forespørgselsoptimeringsmotor: Omskriver og fortolker forespørgsler
- Søgeudbydere: Bing, SharePoint, Graph, Dataverse, Azure AI Search
- Opsummeringsmotor: Skaber jordnære, citerede svar
- Modereringslag: Validerer beskeder og resuméer
- State store: Korttidshukommelse (mindre end 30 dage; ikke brugt til træning)
- Telemetri- og feedback-lagre: Giver indsigt og tilsyn
Sådan fungerer RAG i Copilot Studio
RAG i Copilot Studio følger en firetrinsproces:
- Omskrivning af forespørgsel
- Indholdssøgning
- Opsummering og responsgenerering
- Validering af sikkerhed og styring
1. Omskrivning af forespørgslen
Copilot Studio optimerer brugerens spørgsmål, før der søges:
- Præciserer betydningen
- Tilføjer kontekstuelle signaler (sidste 10 sving)
- Forbedrer søgeordsmatchning
- Genererer søgevenlige forespørgsler
Denne proces øger udhentningskvaliteten og reducerer irrelevante resultater.
2. Indholdssøgning
Efter at have omskrevet forespørgslen, kører systemet den mod alle de videnskilder, du har sat op. Copilot Studio får de tre vigtigste resultater fra hver kilde, så relevansen afstemmes med ydeevnen. Adfærden for hver videnskilde varierer afhængigt af faktorer som autentificering, indeksering, filformater og lagringsbegrænsninger.
Følgende tabel opsummerer alle understøttede videnskilder samt deres kapaciteter, begrænsninger og autentificeringskrav:
| Videnskilde | Beskrivelse | Godkendelse | Nøglekapaciteter, begrænsninger og begrænsninger |
|---|---|---|---|
| Offentlige data (hjemmesider) | Websites indekseret af Bing | Ingen |
|
| SharePoint/OneDrive | Internt virksomhedsindhold (kun internt) | Microsoft Entra ID uddelegeret godkendelse |
|
| Uploadede filer | Filer uploadet til Dataverse-lagring | Ingen |
|
| Dataverse-tabeller | Strukturerede forretningsdokumenter (kun interne) | Microsoft Entra ID uddelegeret godkendelse |
|
| Grafforbindelser | Virksomhedsapps, der er indekseret i Microsoft Graph (kun interne) | Microsoft Entra ID uddelegeret godkendelse |
|
| Realtidsforbindelser | Live data fra systemer som Salesforce, Zendesk, SQL (kun internt) | Brugeren skal være logget ind |
|
| Azure AI Search | Vektorbaseret semantisk søgning | Konfigureret endpoint |
|
| Brugerdefinerede data | Data leveret gennem API'er, flows eller brugerdefineret logik | Ingen |
|
3. Opsummering og responsgenerering
- AI syntetiserer hentet indhold
- Anvender brugerdefinerede instruktioner for tone, formatering, sikkerhed eller kortfattethed
- Genererer citater til de underliggende data
- Personliggør svar ved at bruge brugerkontekst (som sprog, afdeling eller region)
4. Sikkerhed og validering af governance
Hvert svar gennemgår automatiserede valideringslag:
- Moderering af skadelige, ondsindede, ikke-kompatible eller ophavsretligt beskyttede svar
- Validering af jordforbindelse og fjernelse af forkerte oplysninger
Ingen kundedata træner sprogmodeller.
Vigtige overvejelser ved brug af RAG
RAG fungerer bedst til faktuelle spørgsmål og svar, ikke til dybdegående dokumentanalyse.
RAG er ideelt til:
- Besvarelse af spørgsmål fra vidensbaser
- Opsummering af politikker, FAQ'er og proceduremæssigt indhold
- Hentning af specifikke fakta fra filer eller interne systemer
RAG er ikke beregnet til:
- Fuld dokumentsammenligning
- Evaluering af politikoverholdelse
- Kompleks ræsonnement over lange, ustrukturerede dokumenter
Generativ AI-sikkerhed og overholdelsesovervejelser
Generative AI-funktioner i Microsoft Copilot Studio er designet til at levere effektive samtale- og ræsonneevner, samtidig med at du bevarer stærke kontrolelementer til sikkerhed, beskyttelse af personlige oplysninger og overholdelse af angivne standarder.
Fundamentmodeller og hosting
- Copilot Studio er afhængig af basismodeller, som OpenAI træner.
- Copilot Studio bruger en af de nyeste OpenAI-modeller til generative svar.
- Modeller kører udelukkende på interne Azure AI Foundry tjenester, der er justeret efter grænsen for Microsoft Services Trust.
- Al modelbrug følger Microsoft Responsible AI-principper og -politikker.
Brugerdefinerede instruktioner
Skabere kan levere brugerdefinerede instruktioner til at forme modeladfærd, påvirke tone eller tilføje formateringsregler. Disse instruktioner hjælper med at tilpasse de generative svar til organisationens behov, samtidig med at sikkerhedsfiltre og overholdelseskontroller respekteres.
Datalagring og -behandling
- Datalager og -behandling i Copilot Studio kan flytte data på tværs af regionale grænser, når lokal modelhosting ikke er tilgængelig.
- Når denne dataflytning ikke er tilladt, kan administratorer bruge miljøindstillinger til at deaktivere bestemte funktioner, f.eks. Azure sprogmodeller eller Bing Search.
- Copilot Studio indsamler eller bruger ikke kundedata til oplæring af sprogmodeller.
Operationel datahåndtering
- Under driften gemmer systemet midlertidigt samtaler i en sikret, Microsoft-drevet butik.
- Autoriseret Microsoft-personales adgang er begrænset gennem Secure Access Workstations (SAWs) med Just-In-Time (JIT)-kontroller.
- Organisationer kan yderligere kontrollere adgangen via Customer Lockbox, hvilket kræver eksplicit godkendelse, før Microsoft-supportingeniører kan se data.
Fejlfinding af telemetri
- Generative AI-funktioner genererer ekstra fejlfindingsdata, men kun for skaberinitierede handlinger i Testpanelet, specifikt når producenten giver tommelfinger op eller ned til et svar.
- Der logges ingen ekstra kundedata uden for denne eksplicitte feedback-loop.
Overvågning af misbrug og sikkerhed
Da flere sikkerhedslag allerede beskytter generative AI-funktioner, deaktiverer Copilot Studios generative AI Azure overvågning af ai-misbrug for at undgå yderligere logføring af kundedata.