Vad är nätverksmått för containrar?

Varje podd, tjänst och nod i ett Kubernetes-kluster genererar ständigt nätverksaktivitet: anslutningar öppnas, paket vidarebefordras eller tas bort, DNS-frågor matchar eller misslyckas. Att förstå att aktiviteten är viktig för felsökning, kapacitetsplanering och för att hålla tjänsterna felfria. Men de flesta övervakningsinstallationer misslyckas på två sätt:

  • Inte tillräckligt med synlighet. Aggregeringar på nodnivå visar att något är fel, men inte var. Utan uppdelningar på poddnivå som inkluderar käll- och målkontext blir det att gissa när man isolerar en misslyckad arbetsprocess.
  • För mycket data i stor skala. Ett kluster som kör hundratals mikrotjänster kan generera tusentals tidsserier för mått per nod. Att samla in allt ökar lagringskostnaderna och gör instrumentpanelerna långsammare.

Mått för containernätverk i Avancerade containernätverkstjänster för Azure Kubernetes Service (AKS) hanterar dem båda. Funktionen samlar in nätverksmått på nodnivå och poddnivå över Cilium- och icke-Cilium-dataplan som stöds i Linux och Windows.

I Cilium-kluster kan du gå ett steg längre med filtrering på källnivå, vilket gör att du kan välja exakt vilka namnområden, arbetsbelastningar och måtttyper som samlas in innan data lämnar noden.

Filtrering av containermått är en förinmatningskontroll för observerbarhetsdata. I stället för att samla in alla tillgängliga mått och filtrera senare i instrumentpaneler eller frågor definierar du vad du ska samla in vid källan. Detta behåller mått med högt värde för de arbetsbelastningar som du bryr dig om och undviker att mata in tidsserier med lågt värde eller brus.

Resultatet: åtgärdsbar nätverksobservabilitet på alla dataplan som stöds, med valfri kostnadseffektiv filtrering på Cilium.

Containernätsverksmått ger dig djup insyn på arbetsbelastningsnivå för felsökning och planering, medan filtrering på källnivå på Cilium hjälper till att hålla observerbarhetskostnaderna proportionella till affärskritiska arbetsbelastningar.

Snabb insamling och filtrering

Använd den här tabellen för att snabbt förstå var bred samling är tillgänglig och var detaljerad filtrering är tillgänglig:

Förmåga Cilium-kluster Icke-Cilium-kluster
Måttsamling på nodnivå
Måttsamling på poddnivå ✅(Linux) ✅(Linux)
Filtrering på källnivå efter namnområde, poddetikett och måtttyp
Kostnadskontroll via filtrering före inmatning

Important

Från och med den 30 november 2025 har Azure Kubernetes Service (AKS) inte längre stöd för eller tillhandahåller säkerhetsuppdateringar för Azure Linux 2.0. Azure Linux 2.0-nodbilden är låst i 202512.06.0-versionen. Från och med den 31 mars 2026 tas nodbilder bort och du kan inte skala dina nodpooler. Migrera till en Azure Linux-version som stöds genom att uppgradera dina nodpooler till en Kubernetes-version som stöds eller migrera till osSku AzureLinux3. För mer information, se GitHub-ärendet för avveckling och aviserandet om Azure Updates avveckling. Om du vill hålla dig informerad om meddelanden och uppdateringar följer du AKS-versionsinformation.

Viktiga fördelar

  • Kornighet på nod- och poddnivå. Spåra trafikvolym, förlustfrekvens och anslutningstillstånd på nodnivå för infrastrukturens hälsa. Öka detaljnivån till enskilda poddar med käll- och måletiketter för att hitta den exakta arbetsbelastning som orsakar ett problem.

  • Snabbare felsökning. När en tjänst börjar släppa paket eller DNS-frågor misslyckas kan du med mått på poddnivå isolera problemet till en specifik podd, namnrymd eller protokoll i sekunder, inte timmar.

  • Flexibel visualisering. Lagra mått i Azure Managed Prometheus och visualisera i Azure Managed Grafana (fullständigt hanterad) eller ta med din egen Prometheus- och Grafana-infrastruktur.

  • Skalbar från början. Pipelinen hanterar stora, dynamiska kluster med hundratals noder och tusentals poddar utan att du behöver välja mellan omfattande täckning och hanterbara datavolymer.

  • Målinriktad observerbarhet (Cilium-kluster). I Cilium-kluster kan du med filtrering på källnivå definiera de namnområden, poddetiketter eller måtttyper som du bryr dig om och endast samla in dem. Ingen trimning efter samlingen krävs.

  • Lägre kostnader för mätvärdesintag (Cilium-kluster). Eftersom filtrering sker vid källan på varje nod skrapas, överförs eller matas oönskade mätvärden aldrig in i din Prometheus-backend. Du betalar bara för de mått som du faktiskt behöver. I stora kluster där ofiltrerad samling kan producera tusentals tidsserier per nod kan filtrering på källnivå avsevärt minska Azure hanterad Prometheus-inmatning och lagringskostnader.

Så här fungerar det

Diagram över containernätverkets observerbarhetsarkitektur.

Agentstacken på varje nod beror på dataplanet, enligt diagrammet.

Linux Cilium-noder använder en lagerbaserad eBPF-stack: eBPF-kärn-hookar samlar in råtrafikdata, Cilium bearbetar dem och Hubble exponerar dem som metriker i Prometheus-format. Eftersom Hubble ligger mellan noden och skrapslutpunkten körs filtrering på källnivå på det här lagret – du väljer vilka namnområden, poddetiketter och måtttyper som exporteras innan data lämnar noden.

Linux icke-Ciliumnoder använder eBPF-kärnkrokar som matar till Microsoft Retina, med ett Hubble-lager ovanpå för flödesinspektion. Microsoft Retina hanterar måttinsamling och exporterar mått på nodnivå och poddnivå i Prometheus-format.

Från alla sökvägar skrapas måtten i Prometheus-format och matas in i Azure Managed Prometheus eller din egen Prometheus-serverdel och visualiseras sedan i Azure Managed Grafana eller din egen Grafana-stack.

Kom igång genom att konfigurera nätverksmått för containrar och sedan konfigurera filtrering av containernätverksmått för Cilium-kluster.

När du ska använda containernätverksmått

Mått för containernätverk är utformade för team som behöver fokuserade, åtgärdsbara nätverksdata i stället för rå telemetri. Vanliga scenarier är:

  • Felsöka en specifik arbetsbelastning. Använd mått på poddnivå för att isolera paketförluster, TCP-återställningar eller DNS-fel för en viss tjänst. I Cilium-kluster kan filtrering begränsa samlingen till just den namnrymden eller poddetiketten och skära igenom klusteromfattande brus.
  • Övervaka kluster med flera klientorganisationer. Spåra nätverkshälsa per namnområde så att varje team har insyn i sina egna trafikmönster. I Cilium-kluster håller begränsad filtrering samling begränsad till klientspecifika namnområden.
  • Kapacitetsplanering. Spåra vidarebefordrade och borttagna byteantal per nod för att identifiera mättade länkar eller obalanserad arbetsbelastningsplacering.
  • DNS-hälsoövervakning. Visa DNS-frågefel och långsamma lösningstider för att identifiera problem innan de leder till programfel.
  • Minska observerbarhetskostnaderna i stor skala. I stora kluster kan ofiltrerad samling generera tusentals tidsserier per nod. På Cilium-kluster tar filtrering på källnivå bort oönskade serier före inmatning så att kostnaderna ligger i linje med de arbetsbelastningar och måtttyper du väljer.

Så här väljer du vad du vill samla in (Cilium-kluster)

Använd den här distributionsmodellen för att balansera synlighet och kostnader:

  1. Börja med en omfattande samling i ett namnområde som inte är produktionsmiljö för att upprätta en baslinje.
  2. Behåll mått för paketförlust, DNS och TCP-tillstånd för kritiska namnområden.
  3. Begränsa flödesmått med hög kardinalitet till affärskritiska arbetsbelastningar.
  4. Granska Prometheus inmatningstrender och förfina filter varje vecka.

Den här metoden hjälper dig att behålla mått med högt värde samtidigt som du styr tidsserietillväxten och inmatningskostnaderna.

Innan du granskar måtttabellerna

Ha dessa punkter i åtanke:

  • Mått på nodnivå är tillgängliga för Cilium- och icke-Cilium-dataplan som stöds.
  • Mått på poddnivå är tillgängliga i Linux.
  • Filtrering på källnivå är endast tillgängligt i Cilium-kluster.
  • I Cilium-kluster kräver DNS-mått en Cilium FQDN-nätverksprincip.

Referens för mått

Mått på nodnivå

Mått på nodnivå ger aggregerad trafikstatistik per nod – vidarebefordrade och borttagna paket, antal byte och anslutningstillstånd. Dessa mått lagras i Prometheus-format och kan visualiseras i Grafana.

Följande mått aggregeras per nod. Alla mått innehåller följande etiketter:

  • cluster
  • instance (nodnamn)

För Cilium-dataplanskluster är mått på nodnivå endast tillgängliga i Linux. Cilium exponerar följande metriker som används av containernätverksmetrik.

Metriknamn Description Extra etiketter Linux Windows
cilium_forward_count_total Totalt antal vidarebefordrade paket direction
cilium_forward_bytes_total Totalt antal vidarebefordrade byte direction
cilium_drop_count_total Totalt antal borttagna paket direction, reason
cilium_drop_bytes_total Totalt antal borttagna byte direction, reason

Mått på poddnivå (Hubble-mått)

Poddnivåmått inkluderar information om käll- och målpoddar, så att du kan hitta nätverksproblem på individuell arbetsbelastningsnivå. Dessa mått omfattar trafikvolym, borttagna paket, TCP-återställningar och Layer 4/Layer 7-flöden.

DNS-mått (antal frågor, svarskoder och fel) samlas som standard in på icke-Cilium-dataplan. På Cilium-dataplan kräver DNS-mått en Cilium FQDN-nätverksprincip. Du kan också felsöka DNS i realtid med hjälp av Hubble CLI.

I följande tabell beskrivs de mått som aggregeras per podd (nodinformation bevaras).

Alla mått innehåller etiketter:

  • cluster

  • instance (nodnamn)

  • source eller destination

    • För utgående trafik anger en source etikett källpoddens namnområde och namn.

    • För inkommande trafik anger en destination etikett målpoddens namnområde och namn.

Metriknamn Description Extra etiketter Linux Windows
hubble_dns_queries_total Totalt antal DNS-begäranden per fråga source eller destination, query, qtypes (frågetyp)
hubble_dns_responses_total Totalt antal DNS-svar per fråga/svar source eller destination, query, qtypes (frågetyp), rcode (returkod) ips_returned (antal IP-adresser)
hubble_drop_total Totalt antal borttagna paket sourceeller destination, , protocolreason
hubble_tcp_flags_total Totalt antal TCP-paket per flagga source eller destination, flag
hubble_flows_processed_total Totalt antal bearbetade nätverksflöden (Layer 4/Layer 7-trafik) source eller destination, protocol, verdict, , type, subtype

Limitations

Plattforms- och dataplan:

  • Mått på poddnivå är endast tillgängliga i Linux.
  • Cilium-dataplanet stöds från och med Kubernetes version 1.29.
  • Filtrering av mått på källnivå är endast tillgängligt i Cilium-kluster.
  • Måttetiketter har subtila skillnader mellan Cilium- och icke-Cilium-kluster.

DNS-mått:

  • I Cilium-kluster kräver DNS-mått en Cilium FQDN-nätverksprincip, eller så kan du använda Hubble CLI för DNS-felsökning i realtid.

Kända problem:

  • Om en Hubble-nodagent kraschar kan Hubble-reläet krascha, vilket kan avbryta Hubble CLI-sessioner.

FIPS-stöd (endast icke-Cilium-dataplan):

  • FIPS är inte tillgängligt på Ubuntu 20.04-noder på grund av kernelbegränsningar. Använd en Azure Linux-nodpool i stället. Den här begränsningen gäller inte för Cilium-dataplan. Information om uppdateringar finns i AKS-problemspåraren.
Operativsystem FIPS-stöd
Azure Linux 3.0 Yes
Azure Linux 2.0 Yes
Ubuntu 20.04 No

Skala:

Pricing

Important

Avancerade nätverkstjänster för containrar är ett avgiftsbelagt erbjudande.

Mer information om priser finns i Advanced Container Networking Services – Prissättning.