Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Varje podd, tjänst och nod i ett Kubernetes-kluster genererar ständigt nätverksaktivitet: anslutningar öppnas, paket vidarebefordras eller tas bort, DNS-frågor matchar eller misslyckas. Att förstå att aktiviteten är viktig för felsökning, kapacitetsplanering och för att hålla tjänsterna felfria. Men de flesta övervakningsinstallationer misslyckas på två sätt:
- Inte tillräckligt med synlighet. Aggregeringar på nodnivå visar att något är fel, men inte var. Utan uppdelningar på poddnivå som inkluderar käll- och målkontext blir det att gissa när man isolerar en misslyckad arbetsprocess.
- För mycket data i stor skala. Ett kluster som kör hundratals mikrotjänster kan generera tusentals tidsserier för mått per nod. Att samla in allt ökar lagringskostnaderna och gör instrumentpanelerna långsammare.
Mått för containernätverk i Avancerade containernätverkstjänster för Azure Kubernetes Service (AKS) hanterar dem båda. Funktionen samlar in nätverksmått på nodnivå och poddnivå över Cilium- och icke-Cilium-dataplan som stöds i Linux och Windows.
I Cilium-kluster kan du gå ett steg längre med filtrering på källnivå, vilket gör att du kan välja exakt vilka namnområden, arbetsbelastningar och måtttyper som samlas in innan data lämnar noden.
Filtrering av containermått är en förinmatningskontroll för observerbarhetsdata. I stället för att samla in alla tillgängliga mått och filtrera senare i instrumentpaneler eller frågor definierar du vad du ska samla in vid källan. Detta behåller mått med högt värde för de arbetsbelastningar som du bryr dig om och undviker att mata in tidsserier med lågt värde eller brus.
Resultatet: åtgärdsbar nätverksobservabilitet på alla dataplan som stöds, med valfri kostnadseffektiv filtrering på Cilium.
Containernätsverksmått ger dig djup insyn på arbetsbelastningsnivå för felsökning och planering, medan filtrering på källnivå på Cilium hjälper till att hålla observerbarhetskostnaderna proportionella till affärskritiska arbetsbelastningar.
Snabb insamling och filtrering
Använd den här tabellen för att snabbt förstå var bred samling är tillgänglig och var detaljerad filtrering är tillgänglig:
| Förmåga | Cilium-kluster | Icke-Cilium-kluster |
|---|---|---|
| Måttsamling på nodnivå | ✅ | ✅ |
| Måttsamling på poddnivå | ✅(Linux) | ✅(Linux) |
| Filtrering på källnivå efter namnområde, poddetikett och måtttyp | ✅ | ❌ |
| Kostnadskontroll via filtrering före inmatning | ✅ | ❌ |
Important
Från och med den 30 november 2025 har Azure Kubernetes Service (AKS) inte längre stöd för eller tillhandahåller säkerhetsuppdateringar för Azure Linux 2.0. Azure Linux 2.0-nodbilden är låst i 202512.06.0-versionen. Från och med den 31 mars 2026 tas nodbilder bort och du kan inte skala dina nodpooler. Migrera till en Azure Linux-version som stöds genom att uppgradera dina nodpooler till en Kubernetes-version som stöds eller migrera till osSku AzureLinux3. För mer information, se GitHub-ärendet för avveckling och aviserandet om Azure Updates avveckling. Om du vill hålla dig informerad om meddelanden och uppdateringar följer du AKS-versionsinformation.
Viktiga fördelar
Kornighet på nod- och poddnivå. Spåra trafikvolym, förlustfrekvens och anslutningstillstånd på nodnivå för infrastrukturens hälsa. Öka detaljnivån till enskilda poddar med käll- och måletiketter för att hitta den exakta arbetsbelastning som orsakar ett problem.
Snabbare felsökning. När en tjänst börjar släppa paket eller DNS-frågor misslyckas kan du med mått på poddnivå isolera problemet till en specifik podd, namnrymd eller protokoll i sekunder, inte timmar.
Flexibel visualisering. Lagra mått i Azure Managed Prometheus och visualisera i Azure Managed Grafana (fullständigt hanterad) eller ta med din egen Prometheus- och Grafana-infrastruktur.
Skalbar från början. Pipelinen hanterar stora, dynamiska kluster med hundratals noder och tusentals poddar utan att du behöver välja mellan omfattande täckning och hanterbara datavolymer.
Målinriktad observerbarhet (Cilium-kluster). I Cilium-kluster kan du med filtrering på källnivå definiera de namnområden, poddetiketter eller måtttyper som du bryr dig om och endast samla in dem. Ingen trimning efter samlingen krävs.
Lägre kostnader för mätvärdesintag (Cilium-kluster). Eftersom filtrering sker vid källan på varje nod skrapas, överförs eller matas oönskade mätvärden aldrig in i din Prometheus-backend. Du betalar bara för de mått som du faktiskt behöver. I stora kluster där ofiltrerad samling kan producera tusentals tidsserier per nod kan filtrering på källnivå avsevärt minska Azure hanterad Prometheus-inmatning och lagringskostnader.
Så här fungerar det
Agentstacken på varje nod beror på dataplanet, enligt diagrammet.
Linux Cilium-noder använder en lagerbaserad eBPF-stack: eBPF-kärn-hookar samlar in råtrafikdata, Cilium bearbetar dem och Hubble exponerar dem som metriker i Prometheus-format. Eftersom Hubble ligger mellan noden och skrapslutpunkten körs filtrering på källnivå på det här lagret – du väljer vilka namnområden, poddetiketter och måtttyper som exporteras innan data lämnar noden.
Linux icke-Ciliumnoder använder eBPF-kärnkrokar som matar till Microsoft Retina, med ett Hubble-lager ovanpå för flödesinspektion. Microsoft Retina hanterar måttinsamling och exporterar mått på nodnivå och poddnivå i Prometheus-format.
Från alla sökvägar skrapas måtten i Prometheus-format och matas in i Azure Managed Prometheus eller din egen Prometheus-serverdel och visualiseras sedan i Azure Managed Grafana eller din egen Grafana-stack.
Kom igång genom att konfigurera nätverksmått för containrar och sedan konfigurera filtrering av containernätverksmått för Cilium-kluster.
När du ska använda containernätverksmått
Mått för containernätverk är utformade för team som behöver fokuserade, åtgärdsbara nätverksdata i stället för rå telemetri. Vanliga scenarier är:
- Felsöka en specifik arbetsbelastning. Använd mått på poddnivå för att isolera paketförluster, TCP-återställningar eller DNS-fel för en viss tjänst. I Cilium-kluster kan filtrering begränsa samlingen till just den namnrymden eller poddetiketten och skära igenom klusteromfattande brus.
- Övervaka kluster med flera klientorganisationer. Spåra nätverkshälsa per namnområde så att varje team har insyn i sina egna trafikmönster. I Cilium-kluster håller begränsad filtrering samling begränsad till klientspecifika namnområden.
- Kapacitetsplanering. Spåra vidarebefordrade och borttagna byteantal per nod för att identifiera mättade länkar eller obalanserad arbetsbelastningsplacering.
- DNS-hälsoövervakning. Visa DNS-frågefel och långsamma lösningstider för att identifiera problem innan de leder till programfel.
- Minska observerbarhetskostnaderna i stor skala. I stora kluster kan ofiltrerad samling generera tusentals tidsserier per nod. På Cilium-kluster tar filtrering på källnivå bort oönskade serier före inmatning så att kostnaderna ligger i linje med de arbetsbelastningar och måtttyper du väljer.
Så här väljer du vad du vill samla in (Cilium-kluster)
Använd den här distributionsmodellen för att balansera synlighet och kostnader:
- Börja med en omfattande samling i ett namnområde som inte är produktionsmiljö för att upprätta en baslinje.
- Behåll mått för paketförlust, DNS och TCP-tillstånd för kritiska namnområden.
- Begränsa flödesmått med hög kardinalitet till affärskritiska arbetsbelastningar.
- Granska Prometheus inmatningstrender och förfina filter varje vecka.
Den här metoden hjälper dig att behålla mått med högt värde samtidigt som du styr tidsserietillväxten och inmatningskostnaderna.
Innan du granskar måtttabellerna
Ha dessa punkter i åtanke:
- Mått på nodnivå är tillgängliga för Cilium- och icke-Cilium-dataplan som stöds.
- Mått på poddnivå är tillgängliga i Linux.
- Filtrering på källnivå är endast tillgängligt i Cilium-kluster.
- I Cilium-kluster kräver DNS-mått en Cilium FQDN-nätverksprincip.
Referens för mått
Mått på nodnivå
Mått på nodnivå ger aggregerad trafikstatistik per nod – vidarebefordrade och borttagna paket, antal byte och anslutningstillstånd. Dessa mått lagras i Prometheus-format och kan visualiseras i Grafana.
Följande mått aggregeras per nod. Alla mått innehåller följande etiketter:
cluster-
instance(nodnamn)
För Cilium-dataplanskluster är mått på nodnivå endast tillgängliga i Linux. Cilium exponerar följande metriker som används av containernätverksmetrik.
| Metriknamn | Description | Extra etiketter | Linux | Windows |
|---|---|---|---|---|
| cilium_forward_count_total | Totalt antal vidarebefordrade paket | direction |
✅ | ❌ |
| cilium_forward_bytes_total | Totalt antal vidarebefordrade byte | direction |
✅ | ❌ |
| cilium_drop_count_total | Totalt antal borttagna paket |
direction, reason |
✅ | ❌ |
| cilium_drop_bytes_total | Totalt antal borttagna byte |
direction, reason |
✅ | ❌ |
Mått på poddnivå (Hubble-mått)
Poddnivåmått inkluderar information om käll- och målpoddar, så att du kan hitta nätverksproblem på individuell arbetsbelastningsnivå. Dessa mått omfattar trafikvolym, borttagna paket, TCP-återställningar och Layer 4/Layer 7-flöden.
DNS-mått (antal frågor, svarskoder och fel) samlas som standard in på icke-Cilium-dataplan. På Cilium-dataplan kräver DNS-mått en Cilium FQDN-nätverksprincip. Du kan också felsöka DNS i realtid med hjälp av Hubble CLI.
I följande tabell beskrivs de mått som aggregeras per podd (nodinformation bevaras).
Alla mått innehåller etiketter:
clusterinstance(nodnamn)sourceellerdestinationFör utgående trafik anger en
sourceetikett källpoddens namnområde och namn.För inkommande trafik anger en
destinationetikett målpoddens namnområde och namn.
| Metriknamn | Description | Extra etiketter | Linux | Windows |
|---|---|---|---|---|
| hubble_dns_queries_total | Totalt antal DNS-begäranden per fråga |
source eller destination, query, qtypes (frågetyp) |
✅ | ❌ |
| hubble_dns_responses_total | Totalt antal DNS-svar per fråga/svar |
source eller destination, query, qtypes (frågetyp), rcode (returkod) ips_returned (antal IP-adresser) |
✅ | ❌ |
| hubble_drop_total | Totalt antal borttagna paket |
sourceeller destination, , protocolreason |
✅ | ❌ |
| hubble_tcp_flags_total | Totalt antal TCP-paket per flagga |
source eller destination, flag |
✅ | ❌ |
| hubble_flows_processed_total | Totalt antal bearbetade nätverksflöden (Layer 4/Layer 7-trafik) |
source eller destination, protocol, verdict, , type, subtype |
✅ | ❌ |
Limitations
Plattforms- och dataplan:
- Mått på poddnivå är endast tillgängliga i Linux.
- Cilium-dataplanet stöds från och med Kubernetes version 1.29.
- Filtrering av mått på källnivå är endast tillgängligt i Cilium-kluster.
- Måttetiketter har subtila skillnader mellan Cilium- och icke-Cilium-kluster.
DNS-mått:
- I Cilium-kluster kräver DNS-mått en Cilium FQDN-nätverksprincip, eller så kan du använda Hubble CLI för DNS-felsökning i realtid.
Kända problem:
- Om en Hubble-nodagent kraschar kan Hubble-reläet krascha, vilket kan avbryta Hubble CLI-sessioner.
FIPS-stöd (endast icke-Cilium-dataplan):
- FIPS är inte tillgängligt på Ubuntu 20.04-noder på grund av kernelbegränsningar. Använd en Azure Linux-nodpool i stället. Den här begränsningen gäller inte för Cilium-dataplan. Information om uppdateringar finns i AKS-problemspåraren.
| Operativsystem | FIPS-stöd |
|---|---|
| Azure Linux 3.0 | Yes |
| Azure Linux 2.0 | Yes |
| Ubuntu 20.04 | No |
Skala:
- Den hanterade tjänsten för Prometheus i Azure Monitor och Azure Managed Grafana medför tjänstspecifika skalningsbegränsningar. Mer information finns i Scrape Prometheus-mått i stor skala i Azure Monitor.
Pricing
Important
Avancerade nätverkstjänster för containrar är ett avgiftsbelagt erbjudande.
Mer information om priser finns i Advanced Container Networking Services – Prissättning.
Relaterat innehåll
- Konfigurera nätverksmått för containrar
- Konfigurera filtrering av containernätverksmått
- Avancerade containernätverkstjänster för AKS
- Observerbarhet för containernätverk i Avancerade containernätverkstjänster
- Nätverkssäkerhet för containrar i Avancerade containernätverkstjänster