Bemærk
Adgang til denne side kræver godkendelse. Du kan prøve at logge på eller ændre mapper.
Adgang til denne side kræver godkendelse. Du kan prøve at ændre mapper.
AI-agenter, der er bygget med Agent Builder i Microsoft 365 Copilot, Copilot Studio og Microsoft Foundry , skal arbejde inden for sikkerheds-, styrings- og overholdelsesgrænser i virksomhedsklassen. De skal også administreres med ensartede, skalerbare driftspraksisser i hele deres livscyklus.
I takt med at agenter får autonomi, får adgang til forretningsdata og handler på tværs af systemer, skal organisationer sikre, at de forbliver sikre med design, er underlagt hele deres livscyklus og er tilpasset virksomhedens risiko- og overholdelseskrav. I takt med at agenter flytter fra piloter til daglige forretningsarbejdsprocesser, bliver driftsmæssig ekspertise desuden afgørende for at opretholde værdi og tillid.
Denne søjle fokuserer på, hvordan organisationer etablerer de gelændere, kontrolelementer, driftspraksisser og livscyklusstyring, der kræves for at sikre, at agenter arbejder sikkert, kompatibelt og pålideligt i stor skala uden at sinke innovationen.
Hvorfor styring, sikkerhed og drift er vigtige for AI-agenter
Agenter forstærker menneskers hensigt ved at handle inden for konteksten af identitet, data og tilladelser. Uden stærk styring, sikkerhed og driftspraksis kan denne samme funktionalitet medføre risiko via utilsigtet dataeksponering, inkonsekvent adfærd, uklar ansvarlighed, agentspredning eller stigende omkostninger.
Stærk styring, sikkerhed og drift giver det fundament, der gør det muligt for agent-adoption at skalere sikkert og bæredygtigt. De sikrer, at agentadfærd kan observeres, kontrolleres og overvåges, og at øget autonomi matches med klare beslutningsrettigheder, livscyklusovervågning, proaktiv overvågning og risikostyring.
Denne integrerede tilgang hjælper med at fremme innovation uden at gå på kompromis med sikkerheden, pålideligheden eller driftseffektiviteten.
Sådan ser høj modenhed ud
Ved høj modenhed er styring, sikkerhed og handlinger integreret, skalerbar og muliggør i stedet for at begrænse.
Egenskaber for styring og sikkerhed:
- Organisationer styrer agenter ved hjælp af ensartede standarder for hele virksomheden.
- Kontrolelementer til identitet, dataadgang og overholdelse af angivne standarder gennemtvinges som standard.
- Organisationer gør agentadfærd observerbar via logge, telemetri og korrekturmekanismer.
- Menneskelige tilsyns- og eskaleringsforløb er klart defineret for hver agentklasse.
- Styring muliggør hurtigere implementering i stedet for at sinke den.
Drifts- og livscyklusegenskaber:
- Teams anvender standardiserede udrulnings-, overvågnings- og vedligeholdelsesmønstre på en ensartet måde.
- Teams definerer driftstelemetri, tilstandsovervågning og ejerskab af livscyklus, så de kan evaluere, optimere eller trække agenter tilbage baseret på reel brug og værdi.
- Teams opbygger ændringsstyring, oplæring og kommunikation i handlinger for at skabe vedvarende implementering og tillid.
- Agenter skifter problemfrit fra eksperimenter til pålidelige produktionsaktiver med klar ansvarlighed på tværs af it-, sikkerheds- og forretningsaktører.
Ansvarlige AI-egenskaber:
- Organisationer har dokumenteret ansvarlige AI-standarder, der omsætter principper til konkrete forventninger og praksisser.
- Et tværfunktionelt AI-råd leverer aktivt tilsyn, vejledning og eskalering i forbindelse med sager med stor indvirkning eller tvetydige forhold.
- Tillid, risiko og etik er integreret i strategiske diskussioner og performancediskussioner, ikke kun svar på hændelser.
- Teams overvåger løbende for retfærdighed, sikkerhed, misbrug og tillidssignaler i hele agentlivscyklussen.
- Ansvarlige AI-fremgangsmåder integreres via design på tværs af alle leverings- og driftsprocesser.
- Lederskab giver synlig tilsyn og behandler Ansvarlig AI som en strategisk differentiator og tillidskilde.
Drift, styring og sikkerhed bliver katalysatorer for innovation i stedet for reaktive supportfunktioner eller overholdelsesbegrænsninger.
Sådan læser du modenhedstabellen
I tabellen beskrives det, hvordan ai-styring, sikkerhed og driftsfunktioner udvikler sig på tværs af fem modenhedsniveauer.
Bemærk for hvert niveau:
- Tilstand for ai-styring og sikkerhed: Observerbare egenskaber på dette niveau
- Mulighed for fremskridt: Praktiske handlinger, der muliggør næste fase af modenhed
Organisationer arbejder ofte på forskellige niveauer afhængigt af agentkritiskhed. Interne produktivitetsagenter kan f.eks. kræve lettere kontrolelementer end kundeorienterede eller beslutningstagere.
Ai-styring og sikkerhedsmodenhed
| Niveau | Tilstand for ai-styring og sikkerhed | Mulighed for at gøre fremskridt |
|---|---|---|
| 100: Indledende |
Styring og sikkerhed:
|
|
| 200: Gentagelig |
Styring og sikkerhed:
|
|
| 300: Defineret |
Styring og sikkerhed:
|
|
| 400: Stand til |
Styring og sikkerhed:
|
|
| 500: Effektiv |
Styring og sikkerhed:
|
|
Almindelige anti-mønstre
I takt med at organisationer udvikler deres ai-styrings- og sikkerhedspraksisser, støder de på både universelle udfordringer, der kan opstå på ethvert niveau, og specifikke faldgruber, der er knyttet til hver modenhedsfase. Forståelse af disse mønstre hjælper teams med at foregribe og undgå almindelige fejl.
Universel styringsudfordringer
Disse grundlæggende problemer kan underminere styringens effektivitet på ethvert modenhedsniveau:
- Intet lager og intet ejerskab: Teams opretter og deler agenter uden en pålidelig registreringsdatabase, livscyklusstatus eller ansvarlig ejer, hvilket gør overvågninger og svar på hændelser langsomme og inkonsekvente.
- Kontrolelementer er "kun vejledende" i stedet for at kunne gennemtvinges: Teams-dokumentpolitikker, men de oversættes ikke til tekniske kontrolelementer, der kan gennemtvinges (f.eks. datastyring, datapolitik og følsomhedsbegrænsninger), så overholdelse afhænger af individuel funktionsmåde.
- Manglende eller ignoreret miljøstrategi: Oprettere bygger og publicerer i det samme miljø uden klar adskillelse eller gelændere, hvilket øger risikoen for utilsigtet eksponering og svækker kontrollen over ændringer.
- Behandling af alle agenter som den samme (ingen niveauinddelt tilgang efter risiko og kritiskhed): Organisationer anvender ét sæt kontrolelementer for hver agent. Denne fremgangsmåde begrænser enten de personlige produktivitetsagenter med lav risiko (drivende skygge-AI) eller understyrer afdelings- og missionskritiske agenter (hvilket skaber huller i sikkerheden og overholdelse af angivne standarder). Der kræves en niveauinddelt tilgang, fordi kravene til risiko og styring øges, når du flytter fra personlig produktivitet til afdelings- og teamsamarbejde til virksomheds- og missionskritiske arbejdsbelastninger.
- Datapolitik og connectorstyring behandles ikke som en "agentsikkerhedsgrænse": Teams gør det muligt for agenter at oprette forbindelse bredt (connectors, handlinger, HTTP) uden ensartede politikbegrænsninger, hvilket øger risikoen for dataudfiltrering og utilsigtet handling.
- Revision og overvågning er noget, der kommer i anden række: Teams centraliserer ikke logge, opretter dashboards eller forbinder SOC-arbejdsprocesser (Security Operations Center) med agentdata. Teams lærer kun om risikabel adfærd, når hændelser eskalerer.
- Sikkerhedsholdning valideres ikke løbende: Teams er ikke afhængige af beskyttelsesstatus for kørsel, automatiske sikkerhedsscanninger (hvor det er muligt) eller systematiske forventninger til adversarial test før udgivelsen og større opdateringer.
- Styring af omkostninger og forbrug er ikke administreret: Teams tildeler eller overvåger ikke token-, forbrugs- og kapacitetsomkostninger, så forbruget vokser, uden at synlighed og styring ikke kan prioritere, hvad der skal skaleres eller trækkes tilbage.
Modenhedsspecifikke antimønstre
Der opstår forskellige udfordringer i takt med, at organisationer klarer sig gennem modenhedsniveauer:
Niveau 100 – introduktionsniveau: "Shadow AI-spredning"
Mønster: Teams udruller agenter uden central overvågning, sikkerhedskontroller eller driftssupport.
Hvorfor sker det: Mangel på klare styringsrammer. Teams bevæger sig hurtigt for at hente værdi uden at vente på virksomhedsstandarder.
Risiko: Sikkerhedsrisici, overholdelse af angivne standarder, ikke-overdøvet adgang til data og driftsmæssig kaos.
Sådan undgår du: Etablere grundlæggende styrings- og sikkerhedsstandarder før omfattende indførelse. Angiv tydelige eskaleringsstier.
Niveau 200 – gentages: "Governance teater"
Mønster: Oprettelse af formelle styringsprocesser, der medfører ekstra omkostninger uden meningsfuldt at forbedre sikkerheds- eller driftsresultater.
Hvorfor det sker: Afkrydsningsfelt overholdelse mentalitet. Fokuser på dokumentation i forbindelse med praktisk risikostyring.
Risiko: Langsom innovation uden reel forbedring af sikkerheden eller driftssikkerheden.
Sådan undgår du: Fokusstyring på faktisk risikoreduktion og driftsmæssig effektivitet. Mål styringsværdi.
Niveau 300 – defineret: "Driftssiloer"
Mønster: Veldefineret styring og sikkerhed, men fragmenteret driftspraksis på tværs af teams.
Hvorfor det sker: Forskellige teams udvikler forskellige driftsmetoder. Manglende fælles driftsstandarder.
Risiko: Inkonsekvent agentydeevne, duplikeret indsats, reduceret driftsmæssig effektivitet, svækket ændringskontrol.
Sådan undgår du: Implementer delte driftsmæssige strukturer og værktøjer. Etablere operationelle praksisfællesskaber på tværs af teams.
Niveau 400 – kompatibel: "Automatiseringskompleksitet"
Mønster: Overautomatisk styring, sikkerhed og handlinger til det punkt, hvor systemerne bliver svære at forstå eller ændre.
Hvorfor det sker: Succes med automatisering skaber pres for at automatisere alt. Tab af driftsmæssig intuition.
Risiko: Skøre systemer, der er svære at foretage fejlfinding af eller tilpasse. Reduceret evne til at håndtere grænsetilfælde.
Sådan undgår du: Balancer automatisering med menneskelig forglemmelse og forståelse. Bevar driftsekspertise sammen med automatiserede funktioner.
Niveau 500 – Effektivitet: "Innovationsstagnation"
Mønster: Fremragende aktuelle funktioner, men reduceret investering i næste generation af styring, sikkerhed eller driftsmetoder.
Hvorfor det sker: Succes skaber komfort med aktuelle tilgange. Ressourceallokering fokuserer på at vedligeholde i stedet for at fremme.
Risiko: Konkurrenter kan udvikle overlegne metoder. Du kan gå glip af nye trusler eller driftsmuligheder.
Sådan undgår du: Invester løbende i næste generation af funktioner. Overvåg nye tendenser og teknologier.
Operationalisering af Ansvarlig AI
Udarbejd ansvarlig ai i praksis med fire vigtige handlinger: sæt standarder, etablere styring, integrere sikkerhedsforanstaltninger i levering og drift og opbygge teamvaner og -kultur.
Definer en ansvarlig AI-standard
Brug etablerede strukturer, f.eks . Microsoft Responsible AI-principper eller NIST AI Risk Management Framework, som en baseline, og tilpas dem derefter til din organisationskontekst. Oversæt principper til:
- Klare mål, f.eks. reduktion af fordomme og sikring af forklaring.
- Konkrete krav, f.eks. gennemsynsporte, eskaleringsregler og datagrænser.
- Praktiske værktøjer og praksisser, herunder konsekvensanalyser, biastest og overvågning.
Opret et AI-råd
Opret et tværfunktionelt, tværfagligt AI-råd til at føre tilsyn med og vejlede ai-adoption. Typiske roller omfatter:
- Ledersponsor (strategisk retning og prioritering)
- It- og platformaktivering (teknisk parathed og styring)
- Ændringsstyring (indførelse, kommunikation, feedback)
- Risiko, juridisk og overholdelse (ansvarlig AI, beskyttelse af personlige oplysninger, regulering)
Rådet justerer brugen af kunstig intelligens i forhold til organisationens værdier, gennemgår use cases med stor indvirkning, afhjælper risici og skaber tillid på tværs af interessenter.
Integrer ansvarlig AI i levering og handlinger
- Start alle AI-projekter med et ansvarligt AI-kickoff: Spørg, hvordan systemet kan forårsage skade eller urimelighed, og planlæg afhjælpninger tidligt.
- Sørg for, at brugerne ved, hvornår de interagerer med kunstig intelligens, og hvordan beslutninger træffes.
- Overvåg agenter løbende for retfærdighed, sikkerhed, misbrug og tillidssignaler.
- Behandl ansvarlig AI som et løbende driftsmæssigt ansvar, ikke blot som en fluebensmarkering ved udrulning.
Byg ansvarlige AI-vaner og kultur
Ansvarlig kunstig intelligens lykkes, når den bliver en del af den måde, teams fungerer på:
- Opmuntr teams til at dokumentere beslutninger og antagelser.
- Gør det forventet og sikkert at rejse etiske bekymringer.
- Brug scenarier, risikoradarøvelser og retrospektiver til at øve svar.
- Bestyrke, at ansvarlig kunstig intelligens er alles job, ikke kun styringens.
Undgå ansvarlige faldgruber med kunstig intelligens
Organisationer, der kæmper for at skalere AI-agenter sikkert, støder ofte på følgende udfordringer med at operationalisere ansvarlig AI. Disse tilgange skaber skjulte risici, der først dukker op, når adoptionen går i stå eller der opstår hændelser.
Forvirrende ansvarlig AI med kun sikkerhed eller overholdelse af angivne standarder
Mønster: Behandling af ansvarlig ai som synonym med datasikkerhed eller overholdelse af regler.
Derfor skaber denne fremgangsmåde risiko:
- Du går glip af tillidsrisici som f.eks. retfærdighed, forklaringsevne og medarbejdertillid.
- Systemerne kan være kompatible, men de afvises stadig af brugerne.
- Indføringen går langsommere, selv når teknologien fungerer.
Behandling af ansvarlig kunstig intelligens som en engangsgennemgang
Mønster: Håndtering af ansvarlig AI som en tjekliste før udrulning eller udlogningstrin. Når en agent er live, antager teams, at jobbet er fuldført.
Derfor skaber denne fremgangsmåde risiko:
- AI-systemer ændres over tid, efterhånden som prompter, data og brugsmønstre udvikler sig.
- Bias, misbrug og tillidsdrift vises typisk efter go-live, ikke før.
- Teams er ikke forberedt, når problemer opstår, og vender tilbage til reaktive lukninger.
Denne fremgangsmåde fører direkte til svarmønsteret "panik og slå ting fra", der er fremhævet i udløbsscenarierne.
Afhængig af uformelle etiksamtaler
Mønster: Etiske bekymringer afhænger af, om nogen i rummet rejser dem. Teamet har ingen definerede standarder, roller eller eskaleringsstier.
Derfor skaber denne fremgangsmåde risiko:
- Risikodækning bliver uoverensstemmende på tværs af teams og domæner.
- Teamet går glip af anvendelsessager med stor indvirkning, der kræver passende kontrol.
- Ansvarlighed er uklar, når noget går galt.
Denne fremgangsmåde afspejler niveau 100-200-modenhed, hvor bevidstheden findes, men handlingen er forskellig.
Intet AI-råd eller et råd uden autoritet
Mønster: Et AI-råd findes "på papir" eller som et diskussionsforum, men det mangler et klart mandat, beslutningsrettigheder eller ledelsessponsorering.
Derfor skaber denne fremgangsmåde risiko:
- Teams ignorerer eller anvender vejledning selektivt.
- Teams tilsidesætter styring for at komme hurtigere i gang.
- Risiko-, juridiske, it- og forandringshold forbliver ukoordineret.
Uden autoritet kan rådet ikke forhindre blokeringer senere i leveringen, hvilket sinker indførelsen i stedet for at aktivere den.
Venter på, at hændelser lærer
Mønster: Teams antager, at de vil "håndtere problemer, hvis de opstår" i stedet for at forberede svarplaner på forhånd.
Derfor skaber denne fremgangsmåde risiko:
- Svarene er reaktive og inkonsekvente.
- Læring er smertefuldt, offentligt og dyrt.
- Tilliden til kunstig intelligens falder hurtigt efter den første hændelse.
Organisationer med høj modenhed designer svarstrategier, før noget går galt.
Almindelige risici, når du ikke operationaliserer ansvarlig AI
Når du ikke integrerer ansvarlig ai i levering og drift, eller når der ikke er noget effektivt AI-råd, opstår der risici under levering, i handlinger og på organisationsniveau.
-
Under levering:
- Teams udsender agenter, der ikke kan forklare beslutninger til brugerne.
- Forudindtagethed eller urimelige resultater opstår i arbejdsprocesser med stor indvirkning, f.eks. HR, økonomi og kundeservice.
- Ingen ved, hvem der skal godkende ændringer eller stoppe udrulningen.
-
I handlinger:
- Hændelser udløser nødsvar i stedet for struktureret undersøgelse.
- Teams lukker agenter helt ned og vender tilbage til manuelle processer.
- Tillid til kunstig intelligens falder på tværs af organisationen, ikke kun til én use case.
-
På organisationsniveau:
- Ledere mister tilliden til agentautonomi.
- Adoptionen går i stå på trods af stærk teknisk kapacitet.
- Teams ser agenter som risikable i stedet for strategiske.
Brug radaren Ansvarlig AI-risiko til at identificere og afhjælpe agentrisici
Radaren Ansvarlig AI-risiko er en let, gentagelig aktivitet, der hjælper dig med at identificere, prioritere og håndtere ansvarlige AI-risici, før du udruller agenter i produktion.
I stedet for at behandle Ansvarlig AI som en endelig kontrol af overholdelse af angivne standarder integrerer risikoradaren risikotænkning direkte i levering og drift. Det understøtter proaktiv styring og skalering, der er tillid til. Leveringsteams, Centers of Excellence og AI-råd kan køre denne aktivitet. De kan genbruge den på vigtige punkter i agentlivscyklussen (design, forhåndsudgivelse, anmeldelse efter hændelser).
Risikoradaren hjælper teams med at:
- Gør Ansvarlige AI-risici synlige og nemme at diskutere.
- Ankre risici i forhold til de seks principper for ansvarlig kunstig intelligens: retfærdighed, gennemsigtighed, ansvarlighed, pålidelighed og sikkerhed, beskyttelse af personlige oplysninger og sikkerhed samt inklusion.
- Prioriter risici baseret på virkning og sandsynlighed.
- Omsæt risici til konkrete handlinger og teamvaner.
- Angiv struktureret input til et AI-råd eller et styringsforum.
Brug risikoradaren, når:
- Design af en ny AI-agent eller en funktion med stor indvirkning.
- Forbereder en agent til udrulning af produktion.
- Undersøgelse af en hændelse eller et tillidsproblem.
- Gennemgå agentens funktionsmåde som en del af igangværende handlinger.
- Understøttende AI Council-gennemgange af følsomme sager eller sager om anvendelse på tværs af domæner.
Sådan bruger du risikoradaren
Kør en ansvarlig ai-risikoradarsession ved hjælp af følgende trin:
Vælg en konkret use case: Start med et bestemt scenarie, f.eks. en kundeserviceagent med CRM-adgang eller en HR-beslutningssupportagent. Undgå abstrakte diskussioner. Reelle brugscases udgør en reel risiko.
Identificer risici på tværs af ansvarlige AI-principper: Som gruppe brainstormer potentielle risici på tværs af følgende kategorier:
- Retfærdighed
- Gennemsigtighed
- Ansvarlighed
- Pålidelighed og sikkerhed
- Beskyttelse af personlige oplysninger og sikkerhed
- Rummelighed
Registrer risici uden filtrering. På dette tidspunkt, sigter mod dækning, ikke perfektion.
Kortér risici på risikoradaren: Placer hver identificeret risiko på en risikoradar ved hjælp af to dimensioner:
- Effekt (lav → Høj): Hvor alvorlig ville virkningen være, hvis denne risiko opstod?
- Sandsynlighed (usandsynligt → sandsynligt): Hvor sandsynligt er denne risiko i forhold til det aktuelle design?
Denne visualiseringstilknytning hjælper dig med hurtigt at skelne mellem kantsager med lav prioritet og risici med høj sandsynlighed, der kræver øjeblikkelig opmærksomhed.
Eksempelscenarie: Din organisation har udrullet en agent til at håndtere kundeforespørgsler og klager på tværs af flere kanaler – mail, chat og stemme. Agenten kan integreres med CRM-systemer (Customer Relationship Management) og har adgang til kundehistorik, præferencer og transaktionsdata. Agenten kan eskalere komplekse sager til menneskelige agenter.
Definer handlinger og vaner for de største risici: For de to til tre højeste prioriterede risici skal du definere:
- En handling, f.eks. introduktion af et trin til menneskelig godkendelse, der involverer AI-rådet, eller tilføjelse af overvågning.
- En vane eller funktionsmåde til at integrere i teampraksis, f.eks. en obligatorisk gennemgang af forklaringsevne før udgivelsen.
Eksempel:
Risiko Ansvarligt AI-princip Påvirkning Sandsynlighed Aktion Vane Kunderne er uvidende om, at de interagerer med kunstig intelligens Gennemsigtighed Høj Usandsynligt Mandatklarhed, offentliggørelse og citater, så brugerne er klart informeret, når en AI-agent er involveret. Regelmæssigt gennemgå sager, hvor gennemsigtigheden kan være tydeligere. Ingen klar eskaleringssti, når agenten giver skadelige svar Ansvarlighed Høj Usandsynligt Opret en ai-eskaleringsprotokol, der definerer, hvornår og hvordan agenten skal aflevere til et menneske. RAI-fortalere i supporthold. Nominer ejere til at afdække eskaleringshuller tidligt. Eskaleringsbeslutninger forvrænges af historiske data Retfærdighed Høj Sandsynligt Udfør regelmæssige biasrevisioner ved hjælp af forskellige testcases og dokumenterer korrigerende handlinger. Udfordringer med at spotte bias. Kør periodiske øvelser for at identificere og rette forudindtaget adfærd. Agenten fremstiller svar, når han er usikker i stedet for at eskalere Gennemsigtighed Høj Sandsynligt Opret en ai-eskaleringsprotokol med tydelige tærskler for usikkerhed og følsomme emner. RAI retros i støtte anmeldelser. Medtag et "RAI-øjeblik" i ugentlige retros. Midlertidig flertydighed om, hvem der skal godkende en ikke-kritisk konfigurationsændring Ansvarlighed Lav Usandsynligt Opret et AI-råd for at tydeliggøre beslutningsrettigheder og ejerskab. RAI-fortalere i supporthold. Styrke ejerskabet for ændringer med lav risiko. Mindre variation i udtryk eller tone vises i agentsvar for forskellige brugere Retfærdighed Lav Usandsynligt Foretag regelmæssige biasrevisioner for at gennemgå tone og sprogkonsistens. Udfordringer med at spotte bias. Opmuntr teams til at markere diskret bias tidligt. Oplæringsdata peger en smule i retning af almindelige scenarier, hvilket kræver periodisk gennemgang Retfærdighed Lav Sandsynligt Implementer en kontrolliste til ansvarlig AI-gennemgang, der omfatter kontrol af datasaldo. Kundefeedbackløkke. Gennemse svar, der er markeret med flag, ugentligt for at registrere afdrift. Agent forsøger at få adgang til data uden for det tilsigtede omfang, men kontrolelementer blokerer anmodningen Beskyttelse af personlige oplysninger og sikkerhed Lav Sandsynligt Implementer en kontrolliste for ansvarlig AI-gennemgang for at validere dataadgangsgrænser. Kundefeedbackløkke. Overvåg blokerede adgangsforsøg og -mønstre.
Denne tilgang sikrer, at Ansvarlig AI flyttes fra bevidsthed til udførelse og kultur.
Brug af denne søjle i praksis
Til styringsdesign: Brug denne søjle til at oprette styringsrammer, der muliggør innovation, samtidig med at du administrerer risici og sikrer overholdelse af angivne standarder.
I forbindelse med implementering af sikkerhed: Anvend denne søjle til at oprette sikkerhedskontroller, der beskytter agenter og data, uden at det hindrer brugeroplevelsen eller driftseffektiviteten.
Til driftsmæssig ekspertise: Brug denne søjle til at opbygge driftspraksisser, der sikrer, at agenter forbliver pålidelige, effektive og værdifulde i hele deres livscyklus.
Næste trin
I den næste artikel undersøges det, hvordan du opretter skalerbare, sikre tekniske fundamenter og datastrategier til implementering af AI-agenter.
Relaterede oplysninger
- Administration og styringsagenter
- Copilot Control System-sikkerhed og styring
- dokumentation til Microsoft Agent 365
- Microsoft 365 Copilot-ibrugtagningswebsted
- Indføringswebsted for AI-agenter
- Data, beskyttelse af personlige oplysninger og sikkerhed for Microsoft 365 Copilot
- Copilot Studio-sikkerhed og -styring
- Administrer dine Copilot Studio-projekter
- Styring og sikkerhed for AI-agenter på tværs af organisationen
