Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
De richtlijnen in deze set inhoud zijn ontworpen om u te helpen alle aspecten van agents in Microsoft 365 weer te geven, te beheren, te maken, te beveiligen en te begrijpen.
Belangrijke aspecten van deze inhoud zijn de volgende onderwerpen:
- Vereisten: inzicht in licentievereisten, beheerdersmachtigingen en toegangsbeheer.
- Blauwdruk: inzicht in het inschakelen van Microsoft 365 Copilot op schaal.
- Controlelijst : inzicht in het implementeren en implementeren van agentgovernance.
- Visuele handleiding : volg de begeleide beheerpaden en koppelingen om agents beter te begrijpen.
- Beheer Guide: inzicht in waar u moet beginnen met het werken met agents in Microsoft 365.
- Veelgestelde vragen : antwoorden op veelgestelde vragen over agents in Microsoft 365.
Opmerking
Microsoft Agent 365 is het besturingsvlak voor AI-agents, waardoor uw organisatie met vertrouwen al uw agents op schaal kan implementeren, beheren en beheren, ongeacht waar deze agents zijn gebouwd of aangeschaft. Zie Overzicht van Microsoft Agent 365 en Microsoft Agent 365 documentatie voor meer informatie.
Informatie over beveiliging, privacy en naleving van agents
Microsoft past een uitgebreide strategie met meerdere lagen toe om Microsoft 365 Copilot op elk niveau te beveiligen, op basis van bedrijfsbeveiligings-, privacy- en nalevingsstandaarden. Elk aspect van deze basis vormt een veiliger digitaal ecosysteem voor u en uw organisatie, zodat u en uw organisatie met vertrouwen AI-functies en -hulpprogramma's kunnen gebruiken.
Agents gebruiken deze basis als onderdeel van de AI-infrastructuur, het model en de orchestrator van Copilot, wat betekent dat agents zich houden aan de beveiliging, privacy en naleving die wordt geboden door Microsoft 365 Copilot.
Opmerking
De gegevens van uw organisatie worden bewaard binnen de microsoft 365-servicegrens binnen uw tenant. Zie Microsoft 365 Copilot architectuur en hoe het werkt voor meer informatie.
Copilot en agents hebben alleen toegang tot gegevens waartoe afzonderlijke gebruikers gemachtigd zijn en hebben geen toegang tot gegevens waartoe de gebruiker geen toegangsmachtigingen heeft. Daarnaast voeren Copilot en agents het beleid voor voorwaardelijke toegang en meervoudige verificatie (MFA) na op basis van Microsoft Entra ID.
Wanneer u uw zakelijke werkstromen integreert als agents voor Copilot, blijven uw interne gegevens binnen uw agent. Deze gegevens stromen niet uit Microsoft Graph en worden niet gebruikt om Microsoft 365 Copilot LLMs te trainen. Copilot genereert echter wel een zoekquery om namens de gebruiker naar uw agent te verzenden op basis van hun prompt- en gespreksgeschiedenis met Copilot en gegevens waar de gebruiker toegang toe heeft in Microsoft 365.
De uitgebreide beveiligingspostuur van Microsoft voor AI omvat:
- Veilige engineering- en ontwikkelprocedures
- Gegevens, privacy en beveiliging voor Microsoft 365 Copilot
Opmerking
U kunt ook Microsoft Purview gebruiken, dat hulpprogramma's biedt waarmee u uw gegevens kunt detecteren, beveiligen en beheren voor gebruik in Microsoft 365 Copilot, Microsoft 365 Copilot Chat en agents die zijn gepubliceerd naar Microsoft 365. Daarnaast kan Purview helpen bij het detecteren, beveiligen en beheren van de interacties (prompts en antwoorden) met deze AI-apps.
Zero Trust
Als u uw Microsoft 365-omgeving wilt voorbereiden op Copilot en agents, moet u de principes van Zero Trust toepassen op uw tenant. De zeven beveiligingslagen die Zero Trust omvatten, zijn de volgende:
- Gegevensbescherming
- Identiteit en toegang
- App-beveiliging
- Apparaatbeheer en -beveiliging
- Bedreigingsbeveiliging
- Veilige samenwerking met Teams
- Gebruikersmachtigingen voor gegevens
Zie Zero Trust voor meer informatie over het voorbereiden van uw Microsoft 365-omgeving.
RAI
Agents volgen de vereisten voor verantwoordelijke AI (RAI) die zijn opgenomen in Microsoft 365. Microsoft doet er alles aan om ervoor te zorgen dat onze AI-systemen worden geleid door onze AI-principes en verantwoordelijke AI-standaard. Deze principes omvatten het in staat stellen van onze klanten om deze systemen effectief en in overeenstemming met hun beoogde gebruik te gebruiken. Onze benadering van verantwoordelijke AI is voortdurend in ontwikkeling om opkomende problemen proactief aan te pakken.
Rai-principes omvatten de volgende principes:
- Verantwoording
- Transparantie
- Eerlijkheid
- Betrouwbaarheid en veiligheid
- Privacy en beveiliging
- Inclusiviteit
Zie Veelgestelde vragen over verantwoordelijke AI voor Microsoft Copilot in Azure voor meer informatie.
Organisatiegegevens beveiligen
Microsoft 365 Copilot werkt met verschillende Microsoft-services om u te helpen de gegevens van uw organisatie te beschermen. Wanneer u klaar bent om agents binnen uw organisatie te implementeren, moet u rekening houden met de aanbevolen aanpak van Microsoft om oversharingsproblemen op te lossen. Deze benadering biedt de test-, implementatie- en exploitatiefasen die u moet overwegen bij het implementeren van Copilot en agents. Elke fase bestaat uit activiteiten, resultaten en verwachte inspanning die nodig is. Zie Secure & beheerde gegevensbasis voor Microsoft 365 Copilot: een implementatieblauwdruk voor meer informatie.
Daarnaast biedt Microsoft SharePoint Advance Management en Microsoft Purview om oversharing aan te pakken. SharePoint Advance Management biedt mogelijkheden voor sitebeheer en inhoudsbeheer van SharePoint. Microsoft Purview biedt beveiliging, naleving en governance voor gegevens en bestanden.
Opmerking
Microsoft 365 Copilot gebruikt de toegangsrechten van de eindgebruiker om de gegevens te bepalen die aan de eindgebruiker kunnen worden gepresenteerd.
Zie de volgende bronnen voor meer inzicht in aspecten van gegevensbeveiliging met betrekking tot Microsoft 365 Copilot, zoals vertrouwelijkheidslabels, versleuteling, oversharing en gegevenscontrole: