Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
I den här artikeln visas alla AI-säkerhetsrekommendationer som du kan se i Microsoft Defender för molnet.
Rekommendationerna som visas i din miljö baseras på de resurser som du skyddar och på din anpassade konfiguration. Du kan se rekommendationerna i portalen som gäller för dina resurser.
Mer information om åtgärder som du kan vidta som svar på dessa rekommendationer finns i Åtgärda rekommendationer i Defender för molnet.
Azure-rekommendationer
Foundry AI Agent med indirekt risk för direktinmatning bör kräva mänsklig i loopkontrollen för MCP-verktygsåtgärder (förhandsversion)
Beskrivning: Microsoft Defender har identifierat en agent som är mottaglig för indirekt promptinmatning som inte kräver mcp-verktygsåtgärder för användargodkännande. Detta ökar risken för lyckade XPIA-attacker, där angripares dolda instruktioner lurar en agent att utföra skadliga åtgärder eller läcka känslig information. Att lägga till kontrollen "human in the loop", som att kräva användargodkännande för MCP-verktygsåtgärder, kan hjälpa till att skydda agenten och blockera sådana attacker.
Allvarlighetsgrad: Hög
Foundry AI Agent med indirekt inmatningsrisk bör använda förbättrade skyddsräckeskontroller (förhandsversion)
Beskrivning: Microsoft Defender har identifierat en agent som är mottaglig för indirekt promptinmatning (XPIA) baserat på dess verktygskonfiguration och skyddsräcken, som inte tillämpas tillräckligt. I en XPIA-attack döljs skadliga instruktioner i en agent externa datakälla, till exempel webbplatser, för att agenten ska tolka den här inbäddade texten som legitima instruktioner, eventuellt köra skadliga åtgärder eller läcka känslig information. Genom att lägga till agentens skyddsräcken kan en indirekt inmatningskontroll hjälpa till att skydda agenten och blockera sådana attacker.
Allvarlighetsgrad: Hög
Microsoft Entra-ID bör användas när du ansluter Microsoft Foundry till standardlagringskontot (förhandsversion)
Beskrivning: Defender for Cloud identifierade autentiseringsbaserad åtkomst vid anslutning till standardlagringskontot i Microsoft Foundry. Detta innebär en risk för obehörig åtkomst. För att minska risken för obehörig åtkomst bör du inaktivera nyckelbaserad auktorisering och i stället använda Microsoft Entra-ID.
Allvarlighetsgrad: Hög
Microsoft Entra-ID bör användas när du ansluter till datalager i Microsoft Foundry-projektet (förhandsversion)
Beskrivning: Defender for Cloud identifierade autentiseringsbaserad åtkomst vid anslutning till lagringskontot i Microsoft Foundry-projektet. Detta innebär en risk för obehörig åtkomst. För att minska risken för obehörig åtkomst bör du inaktivera nyckelbaserad auktorisering och i stället använda Microsoft Entra-ID.
Allvarlighetsgrad: Hög
Säkerhetsresultat bör lösas på AI-modeller i Azure Machine Learning-resurser (förhandsversion)
Beskrivning: Defender söker kontinuerligt igenom AI-modeller som lagras i Azure Machine Learning-register och arbetsytor efter säkerhetsrisker, till exempel sårbarheter för serialiseringsexploatering och skadlig kod. Dessa utvärderingar hjälper dig att identifiera modeller som kan vara felkonfigurerade eller innehåller skadligt innehåll. Att lösa dessa resultat är viktigt för att upprätthålla en säker och tillförlitlig livscykel för AI-utveckling, minska risken för dataintrång och säkerställa efterlevnad av bästa praxis för säkerhet.
Allvarlighetsgrad: Hög
Application Insights bör användas på Microsoft Foundry (förhandsversion)
Beskrivning: Defender for Cloud har upptäckt att Application Insights inte har konfigurerats i Microsoft Foundry. AI Foundry använder Azure Application Insights för att lagra övervakningsinformation om dina distribuerade modeller. Detta innebär en risk för fördröjd hotidentifiering och ineffektiv incidenthantering.
Allvarlighetsgrad: Medel
Azure AI-agenten bör konfigureras med driftinstruktioner (förhandsversion)
Beskrivning: Azure AI-agenter som inte har konfigurerats med tydliga driftsinstruktioner kan bete sig oförutsägbart eller inkonsekvent. Utan definierad vägledning kan den här agenten oavsiktligt komma åt, bearbeta eller exponera data, svara på frågor på ett olämpligt sätt eller inte uppfylla organisationens säkerhets- och efterlevnadskrav. Den här bristen på kontroll ökar risken för dataläckage, obehöriga åtgärder och feljustering med företagsstyrningsprinciper.
Allvarlighetsgrad: Medel
Azure AI Services-resurser bör ha nyckelåtkomst inaktiverad (inaktivera lokal autentisering)
Beskrivning: Nyckelåtkomst (lokal autentisering) rekommenderas att inaktiveras för säkerhet. Azure OpenAI Studio, som vanligtvis används i utveckling/testning, kräver nyckelåtkomst och fungerar inte om nyckelåtkomst är inaktiverad. När inställningen har inaktiverats blir Microsoft Entra-ID den enda åtkomstmetoden, vilket gör det möjligt att upprätthålla minimiprivilegier och detaljerad kontroll. Läs mer.
Den här rekommendationen ersätter den gamla rekommendationen att Cognitive Services-konton ska ha lokala autentiseringsmetoder inaktiverade. Den fanns tidigare i kategorin Cognitive Services och Cognitive Search och uppdaterades för att följa namngivningsformatet för Azure AI Services och överensstämmer med relevanta resurser.
Allvarlighetsgrad: Medel
Azure AI Services-resurser bör begränsa nätverksåtkomsten
Beskrivning: Genom att begränsa nätverksåtkomsten kan du se till att endast tillåtna nätverk kan komma åt tjänsten. Detta kan uppnås genom att konfigurera nätverksregler så att endast program från tillåtna nätverk kan komma åt Azure AI-tjänstresursen.
Den här rekommendationen ersätter den gamla rekommendationen att Cognitive Services-konton ska begränsa nätverksåtkomsten. Det var tidigare i kategorin Cognitive Services och Cognitive Search och uppdaterades för att följa namngivningsformatet för Azure AI Services och överensstämmer med relevanta resurser.
Allvarlighetsgrad: Medel
Azure AI Services-resurser bör använda Azure Private Link
Beskrivning: Med Azure Private Link kan du ansluta ditt virtuella nätverk till Azure-tjänster utan en offentlig IP-adress vid källan eller målet. Private Link-plattformen minskar risken för dataläckage genom att hantera anslutningen mellan konsumenten och tjänsterna via Azure-stamnätverket.
Läs mer om privata länkar på: Vad är Azure Private Link?
Den här rekommendationen ersätter den gamla rekommendationen cognitive services bör använda privat länk. Det var tidigare i kategorin Datarekommendationer och uppdaterades för att följa namngivningsformatet för Azure AI Services och anpassas till relevanta resurser.
Allvarlighetsgrad: Medel
Azure Databricks-kluster bör inaktivera offentlig IP-adress (förhandsversion)
Beskrivning och relaterad princip: Att inaktivera offentliga IP-adresser för kluster i Azure Databricks-arbetsytor förbättrar säkerheten genom att säkerställa att klustren inte exponeras på det offentliga Internet. Mer information finns i Säker klusteranslutning.
Allvarlighetsgrad: Medel
Azure Databricks-arbetsytor ska finnas i ett virtuellt nätverk (förhandsversion)
Beskrivning och relaterad princip: Azure Virtual Networks ger förbättrad säkerhet och isolering för dina Azure Databricks-arbetsytor, samt undernät, principer för åtkomstkontroll och andra funktioner för att ytterligare begränsa åtkomsten. Mer information finns i Distribuera Azure Databricks i ditt virtuella Azure-nätverk.
Allvarlighetsgrad: Medel
Azure Databricks-arbetsytor bör inaktivera åtkomst till offentliga nätverk (förhandsversion)
Beskrivning och relaterad princip: Om du inaktiverar åtkomst till det offentliga nätverket förbättras säkerheten genom att resursen inte exponeras på det offentliga Internet. Du kan kontrollera exponeringen av dina resurser genom att skapa privata slutpunkter i stället. Mer information finns i Aktivera Azure Private Link.
Allvarlighetsgrad: Medel
Azure Databricks-arbetsytor bör använda privat länk (förhandsversion)
Beskrivning och relaterad princip: Med Azure Private Link kan du ansluta dina virtuella nätverk till Azure-tjänster utan en offentlig IP-adress vid källan eller målet. Private Link-plattformen hanterar anslutningen mellan konsumenten och tjänsterna via Azure-stamnätverket. Genom att mappa privata slutpunkter till Azure Databricks-arbetsytor kan du minska risken för dataläckage. Mer information finns i Skapa arbetsytan och privata slutpunkter i användargränssnittet för Azure Portal.
Allvarlighetsgrad: Medel
Azure Machine Learning Computes ska finnas i ett virtuellt nätverk (förhandsversion)
Beskrivning och relaterad princip: Azure Virtual Networks ger förbättrad säkerhet och isolering för dina Azure Machine Learning Compute-kluster och -instanser, samt undernät, principer för åtkomstkontroll och andra funktioner för att ytterligare begränsa åtkomsten. När en beräkning konfigureras med ett virtuellt nätverk är den inte offentligt adresserbar och kan bara nås från virtuella datorer och program i det virtuella nätverket.
Allvarlighetsgrad: Medel
Azure Machine Learning Computes bör ha lokala autentiseringsmetoder inaktiverade (förhandsversion)
Beskrivning och relaterad princip: Om du inaktiverar lokala autentiseringsmetoder förbättras säkerheten genom att maskininlärningsberäkning kräver Microsoft Entra-ID-identiteter exklusivt för autentisering. Mer information finns i Kontroller för regelefterlevnad i Azure Policy för Azure Machine Learning.
Allvarlighetsgrad: Medel
Azure Machine Learning-arbetsytor bör inaktivera åtkomst till offentligt nätverk (förhandsversion)
Beskrivning och relaterad princip: Om du inaktiverar åtkomst till det offentliga nätverket förbättras säkerheten genom att säkerställa att Machine Learning-arbetsytorna inte exponeras på det offentliga Internet. Du kan kontrollera exponeringen av dina arbetsytor genom att skapa privata slutpunkter i stället. Mer information finns i Konfigurera en privat slutpunkt för en Azure Machine Learning-arbetsyta.
Allvarlighetsgrad: Medel
Azure Machine Learning-beräkningsinstanser bör återskapas för att få de senaste programuppdateringarna (förhandsversion)
Beskrivning och relaterad princip: Se till att Azure Machine Learning-beräkningsinstanser körs på det senaste tillgängliga operativsystemet. Säkerheten förbättras och säkerhetsrisker minskas genom att köras med de senaste säkerhetskorrigeringarna. Mer information finns i Sårbarhetshantering för Azure Machine Learning.
Allvarlighetsgrad: Medel
Anslutna AI-agenter bör konfigureras med instruktioner om hur du anropar dem (förhandsversion)
Beskrivning: Defender for Cloud har upptäckt att detaljerade instruktioner om hur en ansluten agent ska anropas saknas när anslutningen mellan agenter definieras. Att tillhandahålla tydliga instruktioner under anslutningen är viktigt för att säkerställa att agenter arbetar inom sina definierade gränser och för att minska risken för oförutsägbara eller manipulerade utdata. Väldefinierade instruktioner möjliggör konsekventa, säkra interaktioner och skyddar mot risker som oavsiktlig verktygskörning.
Allvarlighetsgrad: Medel
Foundry AI-agentens skyddsräcken bör innehålla Jailbreak-kontroll (förhandsversion)
Beskrivning: Microsoft Defender har upptäckt att AI-agentens skyddsräcken inte har konfigurerats med Jailbreak-kontroll. Jailbreak-attacker är användarfrågor som är utformade för att provocera den generativa AI-modellen till att uppvisa beteenden som den har tränats för att undvika eller bryta mot reglerna som anges i instruktionerna. Om du aktiverar den här kontrollen kan du skydda agenten och blockera sådana attacker.
Allvarlighetsgrad: Medel
Foundry-agentens MCP-verktyg bör konfigureras med listan över tillåtna verktyg (förhandsversion)
Beskrivning: Microsoft Defender har upptäckt att AI-agentens MCP-verktyg har konfigurerats utan listan över tillåtna verktyg. Listan över tillåtna verktyg säkerställer att MCP-verktyget endast kan anropa godkända verktyg, vilket förhindrar oavsiktlig eller skadlig användning av obehöriga funktioner. Att konfigurera listan över tillåtna verktyg kan hjälpa till att skydda agenten från hot om missbruk av verktyg.
Allvarlighetsgrad: Medel
Nätverksanslutningar bör begränsas på Microsoft Foundry (förhandsversion)
Beskrivning: Defender for Cloud identifierade offentlig nätverksåtkomst aktiverad för alla nätverk i Microsoft Foundry. Detta utgör en risk för exponering för externa hot och kan leda till obehörig åtkomst och dataintrång. Genom att begränsa nätverksåtkomsten kan du se till att endast tillåtna nätverk kan komma åt tjänsten.
Allvarlighetsgrad: Medel
Resursloggar i Azure Databricks-arbetsytor ska vara aktiverade (förhandsversion)
Beskrivning och relaterad princip: Resursloggar gör det möjligt att återskapa aktivitetsloggar som ska användas i undersökningssyfte när en säkerhetsincident inträffar eller när nätverket komprometteras.
Allvarlighetsgrad: Medel
Resursloggar i Azure Machine Learning-arbetsytor ska vara aktiverade (förhandsversion)
Beskrivning och relaterad princip: Resursloggar gör det möjligt att återskapa aktivitetsloggar som ska användas i undersökningssyfte när en säkerhetsincident inträffar eller när nätverket komprometteras.
Allvarlighetsgrad: Medel
[Aktivera om det behövs] Kundhanterade nycklar ska användas för att kryptera data på Microsoft Foundry (förhandsversion)
Beskrivning: Defender for Cloud har identifierat att Microsoft-hanterade nycklar används för att kryptera data i Microsoft Foundry. Detta innebär en risk att inte följa regler för organisationer med relaterade efterlevnadskrav. Att använda kundhanterade nycklar (CMK) för att kryptera vilande data ger mer kontroll över nyckellivscykeln, inklusive rotation och hantering, och krävs ofta för att uppfylla efterlevnadsstandarder. Detta utvärderas inte som standard och bör endast tillämpas när det krävs av efterlevnads- eller begränsande principkrav. Om de inte är aktiverade krypteras data med hjälp av Microsoft-hanterade nycklar. Om du vill implementera den här rekommendationen uppdaterar du parametern "Effekt" i säkerhetsprincipen för det tillämpliga omfånget.
Allvarlighetsgrad: Medel
(Aktivera om det behövs) Azure AI Services-resurser ska kryptera vilande data med en kundhanterad nyckel (CMK)
Beskrivning: Att använda kundhanterade nycklar för att kryptera vilande data ger mer kontroll över nyckellivscykeln, inklusive rotation och hantering. Detta är särskilt relevant för organisationer med relaterade efterlevnadskrav.
Detta utvärderas inte som standard och bör endast tillämpas när det krävs av efterlevnads- eller begränsande principkrav. Om de inte är aktiverade krypteras data med plattformshanterade nycklar. Om du vill implementera detta uppdaterar du parametern "Effekt" i säkerhetsprincipen för det tillämpliga omfånget. (Relaterad princip: Azure AI Services-resurser ska kryptera vilande data med en kundhanterad nyckel (CMK))
Den här rekommendationen ersätter den gamla rekommendationen att Cognitive Services-konton ska aktivera datakryptering med hjälp av kundnycklar. Det var tidigare i kategorin Datarekommendationer och uppdaterades för att följa namngivningsformatet för Azure AI Services och anpassas till relevanta resurser.
Allvarlighetsgrad: Låg
Innehållsfiltrering ska användas på en modell som distribueras i Microsoft Foundry (förhandsversion)
Beskrivning: Defender for Cloud har identifierat att innehållsfiltrering är inaktiverat i modellen som distribueras i Microsoft Foundry. Detta utgör en betydande risk för AI-modellen eftersom den kan tillåta att olämpligt eller skadligt innehåll bearbetas och genereras av modellen. Utan innehållsfiltrering är modellen sårbar för att generera utdata som kan vara stötande, vilseledande eller skadliga, vilket kan leda till ryktesskador, juridiska skulder och förlust av användarförtroende. Det är viktigt att möjliggöra innehållsfiltrering för att säkerställa att AI-modellen följer etiska standarder och ger säkra och tillförlitliga utdata.
Allvarlighetsgrad: Låg
Diagnostikloggar i Azure AI-tjänstresurser ska vara aktiverade
Beskrivning: Aktivera loggar för Azure AI-tjänstresurser. På så sätt kan du återskapa aktivitetsspår i undersökningssyfte, när en säkerhetsincident inträffar eller nätverket komprometteras.
Den här rekommendationen ersätter den gamla rekommendationen Diagnostikloggar i tjänsten Search ska aktiveras. Den fanns tidigare i kategorin Cognitive Services och Cognitive Search och uppdaterades för att följa namngivningsformatet för Azure AI Services och anpassas till relevanta resurser.
Allvarlighetsgrad: Låg
AWS AI-rekommendationer
AWS Bedrock AI Agent ska konfigureras med driftinstruktioner (förhandsversion)
Beskrivning: AWS Bedrock AI-agenter som inte har konfigurerats med tydliga driftsinstruktioner kan bete sig oförutsägbart eller inkonsekvent. Utan definierad vägledning kan den här agenten oavsiktligt komma åt, bearbeta eller exponera data, svara på frågor på ett olämpligt sätt eller inte uppfylla organisationens säkerhets- och efterlevnadskrav. Den här bristen på kontroll ökar risken för dataläckage, obehöriga åtgärder och feljustering med företagsstyrningsprinciper.
Allvarlighetsgrad: Medel
AWS Bedrock-agenter bör använda skyddsräcken när de ger åtkomst till generativa AI-program
Beskrivning: Skyddsräcken för Amazon Bedrock förbättrar säkerheten för generativa AI-program genom att utvärdera både användarindata och modellgenererade svar. Dessa skyddsräcken innehåller innehållsfilter som hjälper dig att identifiera och filtrera skadligt innehåll. Mer specifikt kategorin "Prompt Attacks" som innehåller skydd mot användarens uppmaningar för att förhindra jailbreaks och promptinmatningar. Läs mer på: Innehållsfilter – Amazon Bedrock.
Allvarlighetsgrad: Medel
AWS Bedrock bör använda AWS PrivateLink
Beskrivning: Amazon Bedrock VPC-slutpunkt som drivs av AWS PrivateLink, låter dig upprätta en privat anslutning mellan VPC i ditt konto och Amazon Bedrock-tjänstkontot. AWS PrivateLink gör det möjligt för VPC-instanser att kommunicera med Bedrock-tjänstresurser, utan behov av offentliga IP-adresser, vilket minskar riskerna med att exponera data för det offentliga Internet och därmed hjälpa till med dina efterlevnadskrav.
Allvarlighetsgrad: Medel
AWS Bedrock bör ha modellanropsloggning aktiverat
Beskrivning: Med anropsloggning kan du samla in fullständiga begärandedata, svarsdata och metadata som är associerade med alla anrop som utförs i ditt konto. På så sätt kan du återskapa aktivitetsspår i undersökningssyfte när en säkerhetsincident inträffar.
Allvarlighetsgrad: Låg
GCP AI-rekommendationer
En slutpunkt för privat tjänst ska användas för Hörn AI Online-slutpunkter
Beskrivning: Defender for Cloud har upptäckt att en privat tjänstslutpunkt inte har konfigurerats på Hörn AI Online-slutpunkter.
Privata slutpunktsanslutningar framtvingar säker kommunikation genom att aktivera privat anslutning till slutpunkten För onlineförutsägelser. Konfigurera en privat slutpunktsanslutning för att aktivera åtkomst till trafik som endast kommer från kända nätverk och förhindra åtkomst från alla andra IP-adresser.
Allvarlighetsgrad: Medel
Offentliga IP-adresser ska inaktiveras på Workbench-instanser
Beskrivning: Defender for Cloud har identifierat att externa IP-adresser har konfigurerats på GCP Workbench-instansen.
För att minska attackytan bör Workbench-instanser inte ha offentliga IP-adresser. I stället bör instanser konfigureras bakom lastbalanserare för att minimera instansens exponering för Internet
Allvarlighetsgrad: Medel
Rotåtkomst ska inaktiveras på Workbench-instanser
Beskrivning: Defender for Cloud har upptäckt att rotåtkomsten inte är inaktiverad på GCP Workbench-instansen.
För att minska risken för oavsiktliga eller skadliga systemskador är det viktigt att inaktivera rotåtkomst på dina Google Cloud Vertex AI Notebook-instanser. Det här måttet begränsar administrativa privilegier inom instanserna, vilket säkerställer en säkrare miljö.
Allvarlighetsgrad: Medel
Molnövervakning ska användas på GCP Workbench-instansen
Beskrivning: Defender for Cloud har upptäckt att molnövervakning inte är aktiverat på GCP Workbench-instansen.
Att aktivera molnövervakning för Google Cloud Vertex AI-notebook-instanser är viktigt för att spåra prestandamått, identifiera problem tidigt och säkerställa optimal drift genom proaktiv övervakning och aviseringar
Allvarlighetsgrad: Låg
Inaktiv avstängning ska aktiveras på Workbench-instanser
Beskrivning: Defender for Cloud har upptäckt att inaktiv avstängning inte har konfigurerats på GCP Workbench-instansen.
För att optimera kostnader och förbättra säkerheten kontrollerar du att funktionen Inaktiv avstängning är aktiverad för dina Instanser av Google Cloud Vertex AI-notebook-filer.
Allvarlighetsgrad: Låg
[Aktivera om det behövs] Kundhanterade nycklar ska användas för att kryptera vilande data i Hörn-AI-datauppsättningar
Beskrivning: Defender for Cloud har upptäckt att kundhanterade nycklar inte används på hörn-AI-datauppsättningar.
Att använda kundhanterade nycklar för att kryptera vilande data ger mer kontroll över nyckellivscykeln, inklusive rotation och hantering. Detta är särskilt relevant för organisationer med relaterade efterlevnadskrav.
Genom att använda kundhanterade nycklar kan du se till att dina data krypteras med nycklar som du styr, vilket ger dig möjlighet att hantera och rotera dessa nycklar efter behov. Den här extra kontrollen kan hjälpa dig att uppfylla efterlevnadskraven och förbättra säkerheten för dina data.
Allvarlighetsgrad: Låg