Juniper NETWORKS Cloud Native Contrail Networking-instruktioner
Juniper NETWORKS Cloud Native Contrail Networking

Indledning

Cloud-native Contrail-netværk overståetview

OVERSIGT
Lær om Cloud-Native Contrail Networking (CN2).

I DETTE AFSNIT

  • Fordele ved Cloud-Native Contrail Networking | 4

NOTE: Dette afsnit er beregnet til at give en kort overview af Juniper Networks Cloud Native Contrail Networking-løsningen og kan indeholde en beskrivelse af funktioner, der ikke understøttes i den Kubernetes-distribution, du bruger. Se Cloud-Native Contrail Networking Release Notes for oplysninger om funktioner i den aktuelle udgivelse til din distribution. Medmindre andet er angivet, er alle henvisninger til Kubernetes i denne Overview afsnit er lavet generisk og er ikke beregnet til at udskille en bestemt fordeling.

I version 23.4 understøttes Cloud-Native Contrail Networking på følgende:

  • (Opstrøms) Kubernetes
  • Red Hat Åbent skift
  • Amazon EKS
  • Rancher RKE2

Contrail Networking er en SDN-løsning, der automatiserer oprettelsen og styringen af ​​virtualiserede netværk for at forbinde, isolere og sikre cloud-arbejdsbelastninger og -tjenester problemfrit på tværs af private og offentlige skyer.

Cloud-Native Contrail Networking (CN2) bringer dette rige SDN-funktionssæt indbygget i Kubernetes som en netværksplatform og containernetværksinterface (CNI) plug-in.

Nydesignet til cloud-native arkitekturer, CN2 tager fordeltage af de fordele, som Kubernetes tilbyder, fra forenklet DevOps til nøglefærdig skalerbarhed, alt sammen bygget på en yderst tilgængelig platform. Disse fordele omfatter udnyttelse af standard Kubernetes-værktøjer og -praksis til at administrere Contrail gennem hele dets livscyklus:

  • Administrer CN2 ved hjælp af standard Kubernetes og tredjepartsværktøjer.
  • Skaler CN2 ved at tilføje eller fjerne noder.
  • Konfigurer CN2 ved at bruge brugerdefinerede ressourcedefinitioner (CRD'er).
  • Opgrader CN2-software ved at anvende opdaterede manifester.
  • Afinstaller CN2 ved at slette Contrail-navneområder og ressourcer (hvor understøttet).

Mere end et CNI-plugin er CN2 en netværksplatform, der giver dynamisk end-to-end virtuel netværk og sikkerhed til cloud-native containeriserede og virtuelle maskiner (VM) arbejdsbelastninger på tværs af multi-cluster computer- og storagemiljøer, alt fra en centralt kontrolpunkt. Det understøtter hård multitenancy for enkelt- eller multi-cluster-miljøer, der deles på tværs af mange lejere, teams, applikationer eller ingeniørfaser, skaleres til tusindvis af noder.

CN2-implementeringen består af et sæt Contrail-controllere, der befinder sig på enten Kubernetes kontrolplanknudepunkter eller arbejderknudepunkter afhængigt af distribution. Contrail-controllerne administrerer et distribueret sæt dataplaner implementeret af et CNI-plugin og vRouter på hver node. Integrering af en fuldgyldig vRouter sammen med arbejdsbelastningerne giver CN2 fleksibiliteten til at understøtte en bred vifte af netværkskrav, fra små enkeltklynger til multiklynge-implementeringer, herunder:

  • Fuldt overlejret netværk inklusive belastningsbalancering, sikkerhed og multi-tenancy, elastiske og modstandsdygtige VPN'er og gateway-tjenester i enkelt-klynge- og multi-cluster-implementeringer
  • Højt tilgængelig og robust netværkscontroller, der overvåger alle aspekter af netværkskonfigurationen og kontrolplanerne
  • Analysetjenester ved hjælp af telemetri og industristandardovervågnings- og præsentationsværktøjer såsom Prometheus og Granma
  • Understøttelse af både CRI-O og containerkørsel
  • Support til container- og VM-arbejdsbelastninger (ved hjælp af kubevirt)
  • Understøttelse af DPDK dataplanacceleration

Contrail-controlleren registrerer automatisk levering af arbejdsbelastningshændelser, såsom en ny arbejdsbelastning, der instantieres, netværksklargøringshændelser, såsom et nyt virtuelt netværk, der oprettes, routing-opdateringer fra interne og eksterne kilder og uventede netværkshændelser, såsom link- og knudefejl. Contrail-controlleren rapporterer og logger disse hændelser, hvor det er relevant, og omkonfigurerer vRouter-dataplanet efter behov.

Selvom enhver enkelt node kun kan indeholde én Contrail-controller, indeholder en typisk implementering flere controllere, der kører på flere noder. Når der er flere Contrail-controllere, holder controllerne synkroniseret ved at bruge iBGP til at udveksle ruter. Hvis en Contrail-controller går ned, beholder Contrail-controllerne på de andre noder al databaseinformation og fortsætter med at levere netværkskontrolplanet uafbrudt.

På de arbejderknudepunkter, hvor der er arbejdsbelastninger, etablerer hver vRouter kommunikation med to Contrail-controllere, således at vRouteren kan fortsætte med at modtage instruktioner, hvis en controller går ned.

Ved at understøtte Kubernetes indbygget udnytter CN2-løsningen den enkelthed, fleksibilitet, skalerbarhed og tilgængelighed, der er iboende til Kubernetes-arkitekturen, samtidig med at den understøtter et rigt SDN-funktionssæt, der kan opfylde kravene fra både virksomheder og tjenesteudbydere. Virksomheder og tjenesteudbydere kan nu administrere Contrail ved hjælp af forenklede og velkendte DevOps-værktøjer og -processer uden at skulle lære et nyt livscyklusstyringsparadigme (LCM).

Fordele ved Cloud-Native Contrail Networking

  • Understøtte et rigt netværksfunktionssæt til dine overlejringsnetværk.
  • Implementer en meget skalerbar og meget tilgængelig SDN-løsning på både upstream og kommercielle Kubernetes-distributioner.
  • Administrer CN2 ved hjælp af velkendte, industristandardværktøjer og -metoder.
  • Brug eventuelt CN2 Web Ul til at konfigurere og overvåge dit netværk.
  • Udnyt dine eksisterende DevOps-ingeniørers færdigheder til hurtigt at få CN2 op at køre.
  • Kombiner med Juniper Networks stofenheder og stofhåndteringsløsninger, eller brug dit eget stof eller tredjeparts cloud-netværk.

Terminologi

Tabel 1: Terminologi

Semester Mening
Kubernetes kontrolfly Kubernetes-kontrolplanet er samlingen af ​​pods, der administrerer containeriserede arbejdsbelastninger på arbejdernoderne i en klynge.
Kubernetes kontrolplanknudepunkt Dette er den virtuelle eller fysiske maskine, der er vært for Kubernetes-kontrolplanet, tidligere kendt som en masterknude.
Server node I Rancher-terminologi er en servernode en Kubernetes-kontrolplanknude.

Tabel 1: Terminologi (fortsat)

Semester Mening
Kubernetes-knude eller arbejderknude Også kaldet en arbejderknude, en Kubernetes-knude er en virtuel eller fysisk maskine, der er vært for containeriserede arbejdsbelastninger i en klynge. For at mindske tvetydigheden omtaler vi dette strengt som en arbejderknude i dette dokument.
Agent node I Rancher-terminologi er en agentnode en Kubernetes-arbejderknude.
Contrail compute node Dette svarer til en arbejderknude. Det er den node, hvor Contrail vRouteren leverer dataplanfunktionen.
Netværkskontrolplan Netværkskontrolplanet giver kerne SDN-kapaciteten. Den bruger BGP til at interagere med peers såsom andre controllere og gateway-routere, og XMPP til at interagere med dataplankomponenterne.CN2 understøtter en centraliseret netværkskontrolplanarkitektur, hvor routingdæmonen kører centralt i Contrail-controlleren og lærer og distribuerer ruter fra og til dataplankomponenterne. Denne centraliserede arkitektur letter abstraktion, orkestrering og automatisering af virtuelt netværk.
Netværkskonfigurationsplan Netværkskonfigurationsplanet interagerer med Kubernetes kontrolplankomponenter for at administrere alle CN2-ressourcer. Du konfigurerer CN2-ressourcer ved hjælp af brugerdefinerede ressourcedefinitioner (CRD'er).
Netværksdataplan Netværksdataplanet ligger på alle noder og interagerer med containeriserede arbejdsbelastninger for at sende og modtage netværkstrafik. Dens hovedkomponent er Contrail vRouter.
Contrail controller Dette er den del af CN2, der leverer netværkskonfigurationen og netværkskontrolplanets funktionalitet. Dette navn er rent konceptuelt – der er ikke noget tilsvarende Contrail-controllerobjekt eller -entitet i brugergrænsefladen.
Contrail controller node Dette er kontrolplanknudepunktet eller arbejderknudepunktet, hvor Contrail-controlleren befinder sig. I nogle Kubernetes-distributioner befinder Contrail-controlleren sig på kontrolplanknudepunkter. I andre distributioner er Contrail-controlleren placeret på arbejderknudepunkter.
Central klynge I en multi-cluster-implementering er dette den centrale Kubernetes-klynge, der huser Contrail-controlleren.
Semester Mening
Arbejdsbelastningsklynge I en multi-cluster-implementering er dette den distribuerede klynge, der indeholder arbejdsbelastningerne.

CN2 komponenter

CN2-arkitekturen består af pods, der udfører netværkskonfigurationsplanet og netværkskontrolplanets funktioner, og pods, der udfører netværksdataplanets funktioner.

  • Netværkskonfigurationsplanet refererer til den funktionalitet, der gør det muligt for CN2 at administrere sine ressourcer og interagere med resten af ​​Kubernetes kontrolplan.
  • Netværkskontrolplanet repræsenterer CN2's fulde SDN-kapacitet. Den bruger BGP til at kommunikere med andre controllere og XMPP til at kommunikere med de distribuerede dataplankomponenter på arbejdernoderne.
  • Netværksdataplanet refererer til pakketransmissions- og modtagelsesfunktionen på hver knude, især på arbejderknudepunkter, hvor arbejdsbelastningerne er.

De pods, der udfører konfigurations- og kontrolplanfunktionerne, ligger på Kubernetes kontrolplanknudepunkter. Pods, der udfører dataplanfunktionerne, findes på både Kubernetes kontrolplanknudepunkter og Kubernetes-arbejderknudepunkter.

Tabel 2 på side 7 beskriver de vigtigste CN2-komponenter. Afhængigt af konfigurationen kan der også være andre komponenter (ikke vist), der udfører hjælpefunktioner såsom certifikatstyring og statusovervågning.

Tabel 2: CN2-komponenter}

Pod navn Hvor Beskrivelse
Konfigurationsplan 1 contrail-k8s-apiserver Kontrolplanknudepunkt Denne pod er en aggregeret API-server, der er indgangspunktet for styring af alle Contrail-ressourcer. Det er registreret med den almindelige kube EPiServer som en API-tjeneste. Den almindelige kube-EPiServer videresender alle netværksrelaterede anmodninger til contrail-k8s-apiserveren til håndtering. Der er én contrail-k8s-apiserver pod pr. Kubernetes kontrolplanknude.
contrail-k8s-controller Kontrolplanknudepunkt Denne pod udfører Kubernetes-kontrolsløjfefunktionen for at afstemme netværksressourcer. Den overvåger konstant netværksressourcer for at sikre, at den faktiske tilstand af en ressource matcher dens tilsigtede tilstand. Der er én contrail-k8s-controller pod pr. Kubernetes kontrolplanknude.
contrail-k8s- kubemanager Kontrolplanknudepunkt Denne pod er grænsefladen mellem Kubernetes-ressourcer og Contrail-ressourcer. Den overvåger kube-apiserveren for ændringer af almindelige Kubernetes-ressourcer såsom service og navneområde og reagerer på eventuelle ændringer, der påvirker netværksressourcerne. I en enkelt-klynge-implementering er der én contrail-k8s-kubemanager-pod pr. Kubernetes-kontrolplanknude. I en multi-klynge-implementering er der desuden en contrail-k8skubemanager-pod for hver distribueret arbejdsbelastningsklynge.

Tabel 2: CN2-komponenter (fortsat)

Pod navn Hvor Beskrivelse
Kontrolplan 1 kontrakontrol Kontrolplanknudepunkt Denne pod videregiver konfigurationen til arbejdernoderne og udfører ruteindlæring og distribution. Den holder øje med kube-apiserveren for alt, der påvirker netværkskontrolplanet, og kommunikerer derefter med sine BGP-peers og/eller routeragenter (over XMPP) efter behov. Der er én kontrail-kontrol pod pr. Kubernetes kontrolplanknude.
Dataplan contrail-vrouter-noder Arbejder Node Denne pod indeholder vRouter-agenten og selve vRouteren. vRouter-agenten handler på vegne af den lokale vRouter, når den interagerer med Contrail-controlleren. Der er én agent pr. node. Agenten etablerer XMPP-sessioner med to Contrail-controllere for at udføre følgende funktioner:
  • oversætter konfiguration fra kontrolplanet til objekter, som vRouteren forstår
  • grænseflader til kontrolplanet til styring af ruter
  • indsamler og eksporterer statistik fra dataplanet

vRouteren leverer funktionen til at sende og modtage pakker til de co-placerede pods og arbejdsbelastninger. Det giver CNI plug-in funktionalitet.

contrail-vrouter-mastere Kontrolplanknudepunkt Denne pod giver den samme funktionalitet som contrail-vrouter-nodes pod, men er placeret på kontrolplanets noder.

Tabel 2: CN2-komponenter (fortsat)

Pod navn Hvor Beskrivelse
1De komponenter, der udgør netværkskonfigurationsplanet og netværkskontrolplanet, kaldes tilsammen Contrail-controlleren.

Figur 1 på side 9 viser disse komponenter i sammenhæng med en Kubernetes-klynge.

For klarhedens skyld og for at reducere rod viser figurerne ikke dataplan-pods på noden med Contrail-controlleren.

Figur 1: CN2-komponenter
Komponenter
'Når den kører på opstrøms Kubernetes eller Rancher RKE2, gemmer Contrail-controlleren alle CN2-klyngedata i Kubernetes etch-hoveddatabasen som standard. Når den kører på Open Shift, gemmer Contrail-controlleren alle CN2-klyngedata i sin egen Contrail etch-database.

Kube-apiserveren er indgangspunktet for Kubernetes REST API-kald til klyngen. Den dirigerer alle netværksanmodninger til contrail-k8s-apiserveren, som er indgangspunktet for Contrail API-kald. Contrail-k8s-apiserveren oversætter indgående netværksanmodninger til REST API-kald til de respektive CN2-objekter. I nogle tilfælde kan disse opkald resultere i, at Contrail-controlleren sender XMPP-meddelelser til vRouter-agenten på en eller flere arbejdernoder eller sender BGP-meddelelser (ikke vist) til andre kontrolplanknudepunkter eller eksterne routere. Disse XMPP- og BGP-meddelelser sendes uden for almindelig Kubernetes-node-til-node-kommunikation.

Contrail-k8s-kubemanager (cluster) komponenterne er kun til stede i multi-cluster installationer. For flere oplysninger om de forskellige typer implementering, se Implementeringsmodeller.

Figur 2 på side 10 viser en klynge med flere Contrail-controllere. Disse controllere befinder sig på kontrolplanknudepunkter. Kubernetes-komponenterne kommunikerer med hinanden ved hjælp af REST. Contrail-controllerne udveksler ruter med hinanden ved hjælp af iBGP, uden for den almindelige Kubernetes REST-grænseflade. For redundans etablerer vRouter-agenterne på arbejdernoder altid XMPP-kommunikation med to Contrail-controllere.

Figur 2: Multiple Contrail Controllere
Flere Contrail-controllere
"-" HVILE
«—> BGP
«—> REST og XMPP

Implementeringsmodeller

OVERSIGT
Lær om enkeltklynge og multiklynge CN2.

I DETTE AFSNIT

  • Single Cluster Deployment | 11
  • Multi-Cluster Deployment | 12

Cloud-Native Contrail Networking (CN2) er tilgængelig både som en integreret netværksplatform i en enkelt Kubernetes-klynge og som en centraliseret netværksplatform til flere distribuerede Kubernetes-klynger. I begge tilfælde fungerer Contrail som en integreret komponent i din infrastruktur ved at overvåge, hvor arbejdsbelastninger instantieres og forbinde disse arbejdsbelastninger til de relevante overlejringsnetværk.

Enkeltklynge-implementering

Cloud-Native Contrail Networking (CN2) er tilgængelig som en integreret netværksplatform i en enkelt Kubernetes-klynge, der overvåger, hvor arbejdsbelastninger instantieres, og forbinder disse arbejdsbelastninger til de relevante overlejringsnetværk.

I en enkelt-klynge-implementering (Figur 3 på side 12), sidder Contrail-controlleren i Kubernetes-kontrolplanet og leverer netværkskonfigurationen og netværkskontrolplanerne for værtsklyngen. Contrail-dataplankomponenterne sidder i alle noder og leverer pakkesende- og modtagelsesfunktionen til arbejdsbelastningerne.

Figur 3: Enkeltklynge-implementering
Enkelt klynge

Multi-Cluster Deployment

I en multi-klynge-implementering (Figur 4 på side 13), Contrail-controlleren bor i sin egen Kubernetes-klynge og giver netværk til andre klynger. Kubernetes-klyngen, som Contrail-controlleren befinder sig i, kaldes den centrale klynge. Kubernetes-klyngerne, der rummer arbejdsbelastningerne, kaldes de distribuerede arbejdsbelastningsklynger.

Figur 4: Multi-Cluster Deployment
Multi-Cluster Deployment

Centralisering af netværksfunktionen på denne måde gør det ikke kun nemmere at konfigurere og administrere, men også lettere at anvende konsekvent netværkspolitik og sikkerhed.

Figur 5 på side 14 giver flere detaljer om denne opsætning. Contrail-controlleren sidder i Kubernetes-kontrolplanet i den centrale klynge og indeholder en kubemanager for hver arbejdsbelastningsklynge, den betjener. Der er typisk ingen arbejderknudepunkter i den centrale klynge. I stedet ligger arbejdsbelastningerne i arbejderknuderne i de distribuerede arbejdsbelastningsklynger. Contrail CNI-pluginnet og vRouter sidder i arbejdsknudepunkterne i arbejdsbelastningsklyngerne. Kubernetes-kontrolplanet i arbejdsbelastningsklyngerne indeholder ingen Contrail-controllerkomponenter.

Figur 5: Multi-Cluster Components
Multi-cluster komponenter

Multi-cluster Contrail-controlleren adskiller sig fra single-cluster Contrail-controlleren på to hovedmåder:

  • Multi-cluster Contrail-controlleren har en contrail-k8s-kubemanager-pod, der er instantieret for hver distribueret arbejdsbelastningsklynge. Som en del af proceduren til at forbinde en distribueret arbejdsbelastningsklynge til den centrale klynge, opretter og tildeler du eksplicit en contrail-k8s-kubemanager-implementering, der holder øje med ændringer af ressourcer, der påvirker dens tildelte arbejdsbelastningsklynge.
  • Multi-cluster Contrail-controlleren bruger multi-cluster watch-teknologi til at registrere ændringer i de distribuerede arbejdsbyrde-klynger.

Funktionen af ​​multi-cluster contrail-k8s-kubemanager pod er identisk med dens single-cluster modstykke. Den holder øje med ændringer af almindelige Kubernetes-ressourcer, der påvirker dens tildelte klynge, og reagerer på ændringerne i overensstemmelse hermed.

Alle andre Contrail-komponenter i en multi-cluster-implementering opfører sig på samme måde som i en singlecluster-installation. Netværkskontrolplanet, f.eksample, kommunikerer med dataplankomponenter ved hjælp af XMPP, uden for almindelige Kubernetes REST-kanaler. På grund af dette er netværkskontrolplanet ligeglad med, om dataplankomponenterne, som det kommunikerer med, befinder sig i den samme klynge eller i forskellige klynger. Det eneste krav er, at dataplankomponenterne er tilgængelige.

Systemkrav

Tabel 3: Systemkrav til opstrøms Kubernetes-installation med CN2

Maskine CPU VÆDDER Opbevaring Noter
Kontrolplanknudepunkter 1 8 32 GB 400 GB Processoren skal understøtte AVX2-instruktionssættet, hvis du kører DPDK.
Arbejder noder 2 4 16 GB 100 GB Processoren skal understøtte AVX2-instruktionssættet, hvis du kører DPDK.
  1. omfatter noder i enkelte klynger, centrale klynger og distribuerede arbejdsbelastningsklynger. 
  2. Baseret på krav til arbejdsbelastning.

Installere

Overview

I DETTE AFSNIT

  • Fordele ved Upstream Kubernetes med Contrail | 17

Upstream Kubernetes er en open source-version af Kubernetes, der vedligeholdes af Cloud Native Computing Foundation (CNCF). Den består af de kernekomponenter, der giver infrastrukturen til containerorkestrering. Det danner grundlaget for kommercielle Kubernetes-distributioner (med andre ord er det 'opstrøms' i forhold til andre distributioner).

Upstream Kubernetes inkluderer ingen tilføjelseskomponenter til overvågning og livscyklusstyring af din klynge. Det er derfor målrettet organisationer, der har evnen til selv at sammensætte en brugbar orkestreringsløsning. Det er også godt for brugere, der hurtigt vil have en proof-of-concept installation op at køre.

Upstream Kubernetes inkluderer heller ikke et CNI-plugin. Når du har installeret en ny klynge, skal du installere et CNI-plugin til den klynge. Med CN2 kører du blot den medfølgende Contrail-deployer. Contrail-deployeren kører i en container og opfører sig ligesom enhver anden Kubernetes-applikation. Deployeren installerer og leverer livscyklusstyring for CN2-komponenter.

Når CN2 er installeret, administrerer du det ved hjælp af kubectl og andre standard Kubernetes-værktøjer. Hvis du også installerer Contrail Analytics, får du Prometheus, Graafian og anden open source-overvågningssoftware installeret automatisk, med den ekstra fordel, at CN2 vil arbejde problemfrit med disse sidstnævnte applikationer uden yderligere konfiguration nødvendig.

Fordele ved Upstream Kubernetes med Contrail

  • Open source Kubernetes platform sammen med brancheførende CNI
  • Installer kun det, du har brug for, fuldt tilpasseligt
  • Ideel til roll-your-own og proof-of-concept installationer
  • Contrail deployer letter installationen

Før du installerer

  1. Opret en konto hos Juniper Networks, så du kan downloade CN2-manifester fra Juniper Networks-downloadsiden (https:/support.juniper.net/support/downloads/?p=contrail-networking) og få adgang til containerlageret på https:/enterprise -hub.juniper.net.
  2. Sæt stofnetværket op og tilslut dine noder til stoffet. EksampDe netværk, der bruges i dette dokument, er vist i de respektive installationsafsnit.
  3. Download Contrail Networking-manifesterne ("Manifester" på side 38) og udtræk tgz'en til den vært, hvor du planlægger at køre installationen. Denne vært skal være i stand til at nå klyngens noder.
  4. Konfigurer dine loginoplysninger til lageret i de downloadede manifester. Tilføj dine loginoplysninger til lageret til contrail-manifests-k8s og contrail-tools-manifesterne. Se "Konfigurer lageroplysninger" på side 74 for en måde at gøre dette på.
  5. Konfigurer klyngens noder.
    a. Installer et nyt OS på alle servere/VM'er, som du vil bruge som klynge noder. Sørg for, at OS- og kerneversionerne på klyngeknuderne er på listen over understøttede OS'er og kerner (se CN2 Tested Integrations-matrix på https:/www.juniper.net/documentation/us/en/software/cn-cloud-native/ cn2-tested-integrations/cn-cloud-native-tested-integrations/concept/cn-cloud-native testedintegrations.html).
    b. Deaktiver transmissionskontrolsum-offload på enhver klyngenode, der er en VM. Du skal deaktivere aflæsningen på en vedvarende måde (der overlever genstarter). Der er forskellige måder, du kan gøre dette på, herunder at deaktivere overførsel af transmissionskontrolsum i VM-definitionen. Brug den metode, der fungerer bedst i din opsætning.
    c. Konfigurer OS på hver node minimalt for følgende:
    • statisk IP-adresse og maske som pr. exampden klynge, du vil installere (f.eksample, 172.16.0.11/24 til 172.16.0.13/24 i vores enkeltklynge example) og gateway
    • adgang til en eller flere DNS-servere
      NOTE: Hvis du kører systemd-resolved på Ubuntu, skal du sikre dig, at /etc/resolv.conf er knyttet til /run/systemd/resolve/resolv. conf, og ikke til /run/system/resolve/stubresolv. konf.
    • SSH-forbindelse inklusive root SSH-adgang NTP (skal være chrony)
      Klyngeknuderne i vores eksamples kører Ubuntu.
      d. Hvis du planlægger at køre med et DPDK-dataplan, skal du forberede hver klynge node, der kører DPDK. For en exampLæs mere om, hvordan du gør dette, se "Forbered en klyngenode til DPDK" på side 77.
  6. Installer Contrail-værktøj. Se "Installer Contrail Tools" på side 36.
  7. Installer kontrailstatus på den maskine, hvor du planlægger at køre kubectl. Contrailstatus er et kubectl-plugin, du kan bruge til at forespørge Contrail-mikrotjenester og Contrail-specifikke ressourcer. Den eksekverbare kontrailstatus er pakket i den downloadede værktøjspakke. Udpak og kopier den eksekverbare kubectl-contrailstatus til /usr/local/bin.
    Hvis du installerer en multi-cluster, skal du gentage trin 3 til 7 for hver klynge.

Installer Single Cluster Shared Network CN2

OVERSIGT
Se examples om, hvordan man installerer enkelt klynge CN2 i en implementering, hvor Kubernetes-trafik og CN2-trafik deler det samme netværk

I DETTE AFSNIT

  • Installer Single Cluster Shared Network CN2 Running Kernel Mode Data Plane | 21
  • Installer Single Cluster Shared Network CN2 Kører DPDK Data Plane | 23

I en enkelt klynge delt netværksimplementering:

  • CN2 er netværksplatformen og CNI plug-in for den klynge. Contrail-controlleren kører i Kubernetes-kontrolplanet, og Contrail-dataplankomponenterne kører på alle noder i klyngen.
  • Kubernetes- og CN2-trafik deler et enkelt netværk.

Figur 6 på side 20 viser den klynge, du vil oprette, hvis du følger det delte netværk med enkelt klynge f.eks.ample. Klyngen består af en enkelt kontrolplanknude og to arbejderknudepunkter.

Alle viste noder kan være VM'er eller bare metal-servere.

Figur 6: Single Cluster Shared Network CN2
Single Cluster Shared Network
 Al kommunikation mellem noder i klyngen og mellem noder og eksterne sites foregår over det enkelte 172.16.0.0/24-stof virtuelle netværk. Stofnetværket udgør underlaget, som klyngen løber over.

Den lokale administrator er vist knyttet til et separat netværk, der kan nås via en gateway. Dette er typisk for mange installationer, hvor den lokale administrator administrerer strukturen og klyngen fra virksomhedens LAN. I de efterfølgende procedurer henviser vi til den lokale administratorstation som din lokale computer.

NOTE: Forbinder alle cluster noder sammen er datacenterstrukturen, som er vist i example som et enkelt undernet. I rigtige installationer er datacenterstoffet et netværk af ryg- og bladafbrydere, der giver den fysiske forbindelse til klyngen. I et Apstra-administreret datacenter vil denne forbindelse blive specificeret gennem de virtuelle overlejringsnetværk, som du opretter på tværs af de underliggende fabric-switches.

Procedurerne i dette afsnit viser grundlæggende f.eksamples om, hvordan du kan bruge de medfølgende manifester til at oprette den angivne CN2-implementering. Du er ikke begrænset til den implementering, der er beskrevet i dette afsnit, og du er heller ikke begrænset til at bruge de medfølgende manifester. CN2 understøtter en bred vifte af implementeringer, der er for mange til at dække i detaljer. Brug det medfølgende examples som udgangspunkt for at rulle dit eget manifest skræddersyet til din specifikke situation.

Installer Single Cluster Shared Network CN2 Running Kernel Mode Data Plane
Brug denne procedure til at installere CN2 i en enkelt klynge, delt netværksimplementering, der kører et dataplan i kernetilstand.

Manifestet, som du vil bruge i dette example-proceduren er single-cluster/ single_cluster_deployer_example.yaml. Proceduren forudsætter, at du har placeret dette manifest i en manifestmappe.

  1. Opret en Kubernetes-klynge. Du kan følge ex'enampproceduren i "Opret en Kubernetes-klynge"
    på side 66, eller du kan bruge en hvilken som helst anden metode. Opret klyngen med følgende egenskaber:
    • Cluster har ingen CNI plug-in.
    • Deaktiver Node Local DNS.
  2. Anvend Contrail-deployer-manifestet.
    Installer Single Cluster Shared Network
    Det kan tage et par minutter, før noderne og bælgerne kommer op.
  3. Brug standard kubectl-kommandoer til at kontrollere implementeringen.
    a. Vis status for noderne.
    Installer Single Cluster Shared Network
    Du kan se, at noderne nu er oppe. Hvis noderne ikke er oppe, skal du vente et par minutter og kontrollere igen.
    b. Vis status for pods.
    Installer Single Cluster Shared Network
    Alle pods skulle nu have en KØRENDE STATUS. Hvis ikke, vent et par op. ter til de kommende bælg
    c. Hvis nogle pods forbliver nede, skal du fejlfinde installationen, som du plejer. Brug kommandoen kubectl describe for at se, hvorfor en pod ikke kommer op. En almindelig fejl er et netværks- eller firewallproblem, der forhindrer noden i at nå Juniper Networks-depotet. Her er en exampaf et DNS-problem.
    Log ind på hver knude, der har et problem, og kontroller navneopløsning for enterprise-hub.juniper.net. F.eksampdet:
    Installer Single Cluster Shared Network
    NOTE: Selvom enterprise-hub.juniper.net ikke er konfigureret til at reagere på ping, kan vi bruge ping-kommandoen til at kontrollere domænenavnsopløsning.
    I dette example, domænenavnet løses ikke. Tjek domænenavneserverens konfiguration for at sikre, at den er korrekt.
    F.eksampI et Ubuntu-system, der kører systemd resolved, skal du kontrollere, at /etc/resolv.conf er knyttet til /run/systemd/resolve/resolv.conf som beskrevet i trin 5 i "Før du installerer" på side 18, og kontrollere, at din DNS-server er angivet korrekt i det file.
    d. Hvis du løber ind i et problem, du ikke kan løse, eller hvis du lavede en fejl under installationen, skal du blot afinstallere CN2 og starte forfra. For at afinstallere CN2, se "Afinstaller CN2" på side 55.
  4. (Valgfrit) Kør postflight-tjek. Se "Kør Preflight og Postflight Checks" på side 51.

Installer Single Cluster Shared Network CN2, der kører DPDK Data Plane

Brug denne procedure til at installere CN2 i en enkelt klyngedelt netværksinstallation, der kører et DPDK-dataplan.

Manifestet, som du vil bruge i dette example-proceduren er single-cluster/ single_cluster_deployer_example.yaml. Proceduren forudsætter, at du har placeret dette manifest i en manifestmappe.

  1. Opret en Kubernetes-klynge. Du kan følge ex'enampproceduren i "Opret en Kubernetes-klynge" på side 66, eller du kan bruge en hvilken som helst anden metode. Opret klyngen med følgende egenskaber:
    • Cluster har ingen CNI plug-in.
    • Deaktiver Node Local DNS.
    • Aktiver multiversion 0.3.1.
  2. Angiv DPDK-noder.
    For hver node, der kører DPDK, skal du mærke den som følger:
    Installer Single Cluster Shared Network

    Ved at mærke noderne på denne måde vil CN2 bruge den DPDK-konfiguration, der er angivet i manifestet.
  3. Anvend Contrail-deployer-manifestet.
    Installer Single Cluster Shared Network
    Det kan tage et par minutter, før noderne og bælgerne kommer op.
  4. Brug standard kubectl-kommandoer til at kontrollere implementeringen.
    a. Vis status for noderne.
    Installer Single Cluster Shared Network
    Du kan se, at noderne nu er oppe. Hvis noderne ikke er oppe, skal du vente et par minutter og kontrollere igen.
    b. Vis status for pods.
    Installer Single Cluster Shared Network
    Installer Single Cluster Shared Network
    Alle pods skulle nu have en STATUS af at køre. Hvis ikke, vent et par minutter, indtil bælgerne kommer op.
    c. Hvis nogle pods forbliver nede, skal du fejlfinde installationen, som du plejer. Brug kommandoen kubectl describe for at se, hvorfor en pod ikke kommer op. En almindelig fejl er et netværks- eller firewallproblem, der forhindrer noden i at nå Juniper Networks-depotet. Her er en exampaf et DNS-problem.
    Log ind på hver knude, der har et problem, og kontroller navneopløsning for enterprise-hub.juniper.net. F.eksampdet:
    Installer Single Cluster Shared Network
    NOTE: Selvom enterprise-hub.juniper.net ikke er konfigureret til at reagere på ping, kan vi bruge ping-kommandoen til at kontrollere domænenavnsopløsning.
    I dette example, domænenavnet løses ikke. Tjek domænenavneserverens konfiguration for at sikre, at den er korrekt.
    F.eksample, i et Ubuntu-system, der kører systemd løst, skal du kontrollere, at /etc/resolv. conf er knyttet til /run/systemd/resolve/resolv.conf som beskrevet i trin 5 i "Før du installerer" på side 18 og kontroller, at din DNS-server er angivet korrekt i det file.
    d. Hvis du løber ind i et problem, du ikke kan løse, eller hvis du lavede en fejl under installationen, skal du blot afinstallere CN2 og starte forfra. For at afinstallere CN2, se "Afinstaller CN2" på side 55.
  5. (Valgfrit) Kør portlight-tjek. Se "Kør Preflight- og Portlight-tjek" på side 51.

Installer Single Cluster Multi-Network CN2

OVERSIGT
Se examples om, hvordan man installerer enkelt klynge CN2 i en implementering, hvor Kubernetes-trafik og CN2-trafik går over separate netværk.

I DETTE AFSNIT

  • Installer Single Cluster Multi-Network CN2 Running Kernel Mode Data Plane | 28
  • Installer Single Cluster Multi-Network CN2, der kører DPDK Data Plane | 30

I en enkelt klynge multi-netværk udrulning:

  • CN2 er netværksplatformen og CNI plug-in for den klynge. Contrail-controlleren kører i Kubernetes-kontrolplanet, og Contrail-dataplankomponenterne kører på alle noder i klyngen.
  • Klyngetrafik er adskilt på to netværk. Kubernetes-kontrolflytrafikken krydser det ene netværk, mens Contrail-kontrol- og datatrafikken krydser det andet netværk. Det er også muligt (men mindre almindeligt) at adskille trafik på mere end to netværk, men dette er uden for rammerne af disse f.eks.amples.

Figur 7 på side 27 viser den klynge, du vil oprette, hvis du følger dette multi-netværk med enkelt klynge, f.eksample. Klyngen består af en enkelt kontrolplanknude, to arbejdsknudepunkter og to undernet.

Alle viste noder kan være VM'er eller bare metal-servere.

Figur 7: Single Cluster Multi-Network CN2
Single Cluster Multi-Netværk
Kubernetes kontrolflytrafik går over det virtuelle 172.16.0.0/24-stofnetværk, mens Contrail-kontrol og datatrafik går over det virtuelle 10.16.0.0/24-stofnetværk. Stofnetværkene udgør underlaget, som klyngen løber over.

Den lokale administrator er vist knyttet til et separat netværk, der kan nås via en gateway. Dette er typisk for mange installationer, hvor den lokale administrator administrerer strukturen og klyngen fra virksomhedens LAN. I de efterfølgende procedurer henviser vi til den lokale administratorstation som din lokale computer.

NOTE: Forbinder alle cluster noder sammen er datacenterstrukturen, som er vist i example som to undernet. I rigtige installationer er datacenterstoffet et netværk af ryg- og bladafbrydere, der giver den fysiske forbindelse til klyngen.

I et Astra-administreret datacenter vil denne forbindelse blive specificeret gennem de virtuelle overlejringsnetværk, som du opretter på tværs af de underliggende fabric-switches.

Procedurerne i dette afsnit viser grundlæggende f.eksamples om, hvordan du kan bruge de medfølgende manifester til at oprette den angivne CN2-implementering. Du er ikke begrænset til den implementering, der er beskrevet i dette afsnit, og du er heller ikke begrænset til at bruge de medfølgende manifester. CN2 understøtter en bred vifte af implementeringer, der er for mange til at dække i detaljer. Brug det medfølgende examples som udgangspunkt for at rulle dit eget manifest skræddersyet til din specifikke situation.

Installer Single Cluster Multi-Network CN2 Running Kernel Mode Data Plane

Brug denne procedure til at installere CN2 i en enkelt klynge-multinetværksinstallation, der kører et dataplan i kernetilstand.
Manifestet, som du vil bruge i dette example-proceduren er single-cluster/ single_cluster_deployer_example.yaml. Proceduren forudsætter, at du har placeret dette manifest i en manifestmappe.

  1. Opret en Kubernetes-klynge. Du kan følge ex'enampproceduren i "Opret en Kubernetes-klynge"
    på side 66, eller du kan bruge en hvilken som helst anden metode. Opret klyngen med følgende egenskaber:
    • Cluster har ingen CNI plug-in.
    • Deaktiver Node Local DNS.
  2. Rediger single_cluster_deployer_example.yaml for at konfigurere Contrail-kontrol- og datanetværket.
    Du angiver Contrail-netværket ved hjælp af et ConfigMap-config-netværk. Single_cluster_deployer_example.yaml-manifestet indeholder et kommenteret example om, hvordan du kan konfigurere en contrail-network-config ConfigMap.
    Fjern enten disse linjer og angiv det relevante undernet og gateway eller kopier og indsæt følgende i manifestet.
    Installer Single Cluster Shared Network
    Det undernet og gateway du angiver er Contrail kontrol- og datanetværket og gatewayen, som i vores fhv.ample er 10.16.0.0/24 netværket.
  3. Anvend Contrail-deployer-manifestet.
    Installer Single Cluster Shared Network
    Det kan tage et par minutter, før noderne og bælgerne kommer op.
  4. Brug standard kubectl-kommandoer til at kontrollere implementeringen.
    a. Vis status for noderne.
    Installer Single Cluster Shared Network
    b. Vis status for pods.
    Installer Single Cluster Shared Network
    Alle pods skulle nu have en STATUS af at køre. Hvis ikke, vent et par minutter, indtil bælgerne kommer op.
    c. Hvis nogle pods forbliver nede, skal du fejlfinde installationen, som du plejer. Brug kommandoen kubectl describe for at se, hvorfor en pod ikke kommer op. En almindelig fejl er et netværks- eller firewallproblem, der forhindrer noden i at nå Juniper Networks-depotet.
    Her er en exampaf et DNS-problem.
    Log ind på hver knude, der har et problem, og kontroller navneopløsning for enterprise-hub.juniper.net. Til
    exampdet:
    Installer Single Cluster Shared Network
    NOTE: Selvom enterprise-hub.juniper.net ikke er konfigureret til at reagere på ping, kan vi bruge ping-kommandoen til at kontrollere domænenavnsopløsning.
    I dette example, domænenavnet løses ikke. Tjek domænenavneserverens konfiguration for at sikre, at den er korrekt.
    F.eksample, i et Ubuntu-system, der kører systemd resolved, skal du kontrollere, at /etc/resolv.conf er linket til /run/systemd/resolve/resolv.conf som beskrevet i trin 5 i "Før du installerer" på side 18 og kontrollere, at din DNS serveren er angivet korrekt i det file.
    d. Hvis du løber ind i et problem, du ikke kan løse, eller hvis du lavede en fejl under installationen, skal du blot afinstallere CN2 og starte forfra. For at afinstallere CN2, se "Afinstaller CN2" på side 55.
  5. (Valgfrit) Kør postflight-tjek. Se "Kør Preflight og Postflight Checks" på side 51.

I Installer Single Cluster Multi-Network CN2, der kører DPDK Data Plane

Brug denne procedure til at installere CN2 i en enkelt klynge-multinetværksinstallation, der kører et DPDK-dataplan.

Manifestet, som du vil bruge i dette example-proceduren er single-cluster/ single_cluster_deployer_example.yaml. Proceduren forudsætter, at du har placeret dette manifest i en manifestmappe.

  1. Opret en Kubernetes-klynge. Du kan følge ex'enampproceduren i "Opret en Kubernetes-klynge" på side 66, eller du kan bruge en hvilken som helst anden metode. Opret klyngen med følgende egenskaber:
    • Cluster har ingen CNI plug-in.
    • Deaktiver Node Local DNS.
    • Aktiver molts version 0.3.1.
  2. Rediger single_cluster_deployer_example.yaml for at konfigurere Contrail-kontrol- og datanetværket.
    Du angiver Contrail-netværket ved hjælp af et ConfigMap-config-netværk. Single_cluster_deployer_example.yaml-manifestet indeholder et kommenteret example om, hvordan du kan konfigurere en contrail-network-config ConfigMap.
    Fjern enten disse linjer og angiv det relevante undernet og gateway eller kopier og indsæt følgende i manifestet.
    Installer Single Cluster Shared Network
    Det undernet og gateway du angiver er Contrail kontrol- og datanetværket og gatewayen, som i vores fhv.ample er 10.16.0.0/24 netværket.
  3. Angiv DPDK-noder.
    For hver node, der kører DPDK, skal du mærke den som følger:
    Installer Single Cluster Shared Network
    Ved at mærke noderne på denne måde vil CN2 bruge den DPDK-konfiguration, der er angivet i manifestet.
  4. Anvend Contrail-deployer-manifestet.
    Installer Single Cluster Shared Network
    Det kan tage et par minutter, før noderne og bælgerne kommer op.
  5. Brug standard kubectl-kommandoer til at kontrollere implementeringen
    a. Vis status for noderne.
    Installer Single Cluster Shared Network
    Du kan se, at noderne nu er oppe. Hvis noderne ikke er oppe, skal du vente et par minutter og kontrollere igen
    b. Vis status for pods.
    Installer Single Cluster Shared Network
    Alle pods skulle nu have en KØRENDE STATUS. Hvis ikke, vent et par op. ter til de kommende bælg
    c. Hvis nogle pods forbliver nede, skal du fejlfinde installationen, som du plejer. Brug kommandoen kubectl describe for at se, hvorfor en pod ikke kommer op. En almindelig fejl er et netværks- eller firewallproblem, der forhindrer noden i at nå Juniper Networks-depotet. Her er en exampaf et DNS-problem.
    Log ind på hver knude, der har et problem, og kontroller navneopløsning for enterprise-hub.juniper.net. F.eksampdet:
    Installer Single Cluster Shared Network
    NOTE: Selvom enterprise-hub.juniper.net ikke er konfigureret til at reagere på ping, kan vi bruge ping-kommandoen til at kontrollere domænenavnsopløsning.
    I dette example, domænenavnet løses ikke. Tjek domænenavneserverens konfiguration for at sikre, at den er korrekt.
    F.eksample, i et Ubuntu-system, der kører systemd resolved, skal du kontrollere, at /etc/resolv.conf er linket til /run/systemd/resolve/resolv.conf som beskrevet i trin 5 i "Før du installerer" på side 18 og kontrollere, at din DNS serveren er angivet korrekt i det file.
    d. Hvis du løber ind i et problem, du ikke kan løse, eller hvis du lavede en fejl under installationen, skal du blot afinstallere CN2 og starte forfra. For at afinstallere CN2, se "Afinstaller CN2" på side 55.
  6. (Valgfrit) Kør postflight-tjek. Se "Kør Preflight og Postflight Checks" på side 51.

Installer Multi-Cluster Shared Network CN2

OVERSIGT
Se examples om, hvordan man installerer multi-cluster CN2 i en implementering, hvor Kubernetes-trafik og CN2-trafik deler det samme netværk inden for hver klynge

I DETTE AFSNIT

  • Installer Multi-Cluster Shared Network CN2 35

I en multi-cluster delt netværksimplementering:

  • CN2 er den centrale netværksplatform og CNI-plugin til flere distribuerede arbejdsbelastningsklynger. Contrail-controlleren kører i Kubernetes-kontrolplanet i den centrale klynge, og Contrail-dataplankomponenterne kører på arbejderknuderne i de distribuerede arbejdsbelastningsklynger.
  • Kubernetes- og CN2-trafik inden for hver klynge deler et enkelt netværk.

Figur 8 på side 34 viser den klynge, du vil oprette, hvis du følger opsætningen af ​​flere klynge. Den centrale klynge består af 3 Kubernetes-kontrolplanknudepunkter, der kører Contrail-controlleren. Denne centraliserede Contrail-controller sørger for netværket for distribuerede arbejdsbelastningsklynger. I dette example, der er en distribueret klynge, der består af en enkelt kontrolplanknude og to arbejdsknudepunkter. Arbejdernoderne på den distribuerede arbejdsbelastningsklynge indeholder Contrail-dataplankomponenterne.

Figur 8: Multi-Cluster CN2
Multi-klynge CN2
Den centrale klynge knytter sig til 172.16.0.0/24-netværket, mens den distribuerede arbejdsbelastningsklynge tilslutter sig 10.16.0.0/24-netværket. En gateway, der sidder mellem netværkene, giver adgang til hver
anden og ekstern adgang til at downloade billeder fra Juniper Networks repositories.

Den lokale administrator er vist knyttet til et separat netværk, der kan nås via en gateway. Dette er typisk for mange installationer, hvor den lokale administrator administrerer strukturen og klyngen fra virksomhedens LAN. I de efterfølgende procedurer henviser vi til den lokale administratorstation som din lokale computer.

NOTE: At forbinde alle klynge noder sammen er datacenterstrukturen, som er forenklet i example ind i et enkelt undernet pr. klynge. I rigtige installationer er datacenterstoffet et netværk af ryg- og bladafbrydere, der giver den fysiske forbindelse til klyngen.
I et Apstra-administreret datacenter vil denne forbindelse blive specificeret gennem de virtuelle overlejringsnetværk, som du opretter på tværs af de underliggende fabric-switches.

For at installere CN2 i en multi-klynge-implementering skal du først oprette den centrale klynge og derefter knytte de distribuerede arbejdsbelastningsklynger til den centrale klynge én efter én. Som med implementeringen af ​​enkeltklynge starter du med en ny klynge uden CNI-plugin installeret, og derefter installerer du CN2 på den.

Procedurerne i dette afsnit viser grundlæggende f.eksamples om, hvordan du kan bruge de medfølgende manifester til at oprette den angivne CN2-implementering. Du er ikke begrænset til den implementering, der er beskrevet i dette afsnit, og du er heller ikke begrænset til at bruge de medfølgende manifester. CN2 understøtter en bred vifte af implementeringer, der er for mange til at dække i detaljer. Brug det medfølgende examples som udgangspunkt for at rulle dit eget manifest til din specifikke situation.

Installer Multi-Cluster Shared Network CN2

Brug denne procedure til at installere CN2 i en delt netværksinstallation med flere klynge, der kører et dataplan i kernetilstand.

Manifestet, som du vil bruge i dette example-proceduren er multi-cluster/ central_cluster_deployer_example.yaml. Proceduren forudsætter, at du har placeret dette manifest i en manifestmappe.

  1. Opret den centrale klynge.
    Følg exampproceduren i "Opret en Kubernetes-klynge" på side 66, eller du kan bruge en hvilken som helst anden metode. Opret klyngen med følgende egenskaber:
    • Cluster har ingen CNI plug-in.
    • Deaktiver Node Local DNS.
      Skræddersy proceduren med det ønskede antal kontrolplan og arbejdsknudepunkter i overensstemmelse hermed.
  2. Installer CN2 på den centrale klynge.
    a. Anvend det centrale klyngemanifest (central_cluster_deployer_example.yaml). Dette manifest opretter de navneområder og andre ressourcer, der kræves af den centrale klynge. Det skaber også contrailk8s-deployer-implementeringen, som implementerer CN2 og leverer livscyklusstyring for CN2-komponenterne.
    Installer Single Cluster Shared Network
    b. Tjek, at alle pods nu er oppe. Dette kan tage et par minutter.
    Installer Single Cluster Shared Network
    Du har nu oprettet den centrale klynge.
  3. Følg "Vedhæft en arbejdsbelastningsklynge" på side 57 for at oprette og vedhæfte en distribueret arbejdsbelastningsklynge til den centrale klynge.
  4. Gentag trin 3 for hver arbejdsbelastningsklynge, du vil oprette og vedhæfte.
  5. (Valgfrit) Kør portlight-tjek. Se "Kør Preflight- og Portlight-tjek" på side 51.
    NOTE: Kør kun portlight-tjek fra den centrale klynge.

Installer Contrail Tools

OVERSIGT
Lær, hvordan du installerer værktøjer, der kan hjælpe din CN2-installation til at gå mere problemfrit

I DETTE AFSNIT

  • Installer Contrail Readiness Controller | 37

Contrail-værktøjer implementeres inden for Contrail Readiness-controller-rammerne. Controlleren kører værktøjerne og samler og præsenterer resultaterne asynkront efter behov.

Du skal konfigurere ContrailReadiness-controllerrammerne, før du kan køre nogen værktøjer. Når contolleren kommer op, skal du følge proceduren for det værktøj, du gerne vil køre.

  • "preflight checks" på side 51
  • "efterflyvningstjek" på side 51
  •  "CN2 afinstallation" på side 55

Installer ContrailReadiness Controller

Brug denne procedure til at installere ContrailReadiness-controlleren. ContrailReadiness-controlleren er påkrævet, før du kan køre nogen værktøjer.

Du kan installere ContrailReadiness-controlleren før eller efter du har installeret CN2. Installation af controlleren, før du installerer CN2, giver dig mulighed for at køre preflight-tjek på klyngen.

  1. Find biblioteket contrail-tools/contrail-readiness fra den downloadede CN2 Tools-pakke.
  2. Hvis du ikke allerede har gjort det, skal du sikre dig, at du har udfyldt værktøjsmanifesterne med dine loginoplysninger til lageret. Se "Konfigurer arkivoplysninger" på side 74 for en måde at gøre dette på.
  3. Anvend Contrail Readiness brugerdefinerede ressourcedefinitioner.
    Installer Single Cluster Shared Network
  4. Opret Config Map fra det implementerede manifest, som du planlægger at bruge eller har brugt til at installere denne klynge. Navngiv Config Map implementeret yam.
    Installer Single Cluster Shared Network
    hvor er den fulde sti til det implementerede manifest, som du vil anvende eller har anvendt.
  5. Patch Config Map med registreringsdatabasen information.
    Installer Single Cluster Shared Network
  6. Opret Contrail Readiness-controlleren.
    Installer Single Cluster Shared Network
    Tjek at controlleren er kommet op.

Manifester

OVERSIGT
Vi leverer sample manifesterer for at gøre din installation nemmere. Du kan downloade disse manifester fra Juniper Networks-softwaredownloadsiden eller fra GitHub.

I DETTE AFSNIT

  • Manifester i udgivelse 23.4 | 38
  • Contrail Tools i Release 23.4 | 39
  • Contrail Analytics i Release 23.4 | 40

Manifester i udgivelse 23.4

CN2 Upstream Kubernetes-manifestpakken kaldes Deployment Manifests for K8s og er tilgængelig til download fra Juniper Networks-softwaredownloadsiden (https:/support.juniper.net/
support/downloads/?p=contrail-networking) eller fra githu (https://github.com/Juniper/contrailnetworking/tree/main/releases/23.4/k8s).

NOTE: De leverede manifester er muligvis ikke kompatible mellem udgivelser. Sørg for at bruge manifesterne til den udgivelse, du kører. I praksis betyder det, at du ikke skal ændre billedet tag i de medfølgende manifester.

Hvis du downloader fra Juniper Networks-softwaredownloadsiden, skal du have en konto for at downloade. Hvis du ikke har en konto, skal du kontakte din Juniper Networks salgsrepræsentant for at få oprettet en til dig.

Følgende tabel viser de enkelte klyngemanifester i den pakke.

Tabel 4: Enkeltklyngemanifester for Upstream Kubernetes til udgivelse 23.4

Manifest Beskrivelse
k8s/single_cluster/ single_cluster_deployer_example.yaml Indeholder manifesterne til at installere Contrail i en enkelt klynge.

Følgende tabel viser de manifester, der er specifikke for opsætning af en multi-cluster.

Tabel 5: Multi-klyngemanifester for Upstream Kubernetes til udgivelse 23.4

Manifester Beskrivelse
k8s/multi-cluster/ central_cluster_deployer_example.yaml Contrail deployer og nødvendige ressourcer til den centrale klynge i en multi-cluster opsætning.
k8s/multi-cluster/ distributed_cluster_certmanager_example.yaml Contrail cert-manager manifester til kryptering af Contrail management og kontrol flykommunikation.
k8s/multi-cluster/ distributed_cluster_deployer_example.yaml Contrail deployer og nødvendige ressourcer til distribuerede arbejdsbelastningsklynger i en multi-cluster opsætning.
k8s/multi-cluster/ distributed_cluster_vrouter_example.yaml Contrail vRouter til de distribuerede arbejdsbyrde-klynger i en multi-cluster-opsætning.

Træk værktøj

Den valgfri Contrail Tools-pakke kaldes Contrail Tools og kan downloades fra Juniper Networks softwaredownload https://support.juniper.net/support/downloads/?p=contrail-netværkswebsted. Contrail-værktøjer er kun kompatible med CN2 inden for samme udgivelse.

Du skal bruge en konto for at downloade. Hvis du ikke har en konto, skal du kontakte din Juniper Networks salgsrepræsentant for at få oprettet en til dig.

Følgende tabel viser værktøjer, som vi leverer.

Tabel 6: Værktøjsmanifester til udgivelse 23.4

Værktøjer Beskrivelse
contrail-tools/contrail-readiness/contrail-readiness- controller. yaml ContrailReadiness-controlleren, der kører preflight- og postflight-tjek
contrail-tools/contrail-readiness/contrail-readiness- preflight.yaml ContrailReadiness preflight tilpasset ressource
contrail-tools/contrail-readiness/contrail-readiness- postflight.yaml ContrailReadiness postflight tilpasset ressource
contrail-tools/contrail-readiness/contrail-readiness- uninstall.yaml ContrailReadiness afinstaller tilpasset ressource
contrail-tools/conrail-readiness/crds ContrailReadiness brugerdefinerede ressourcedefinitioner for de understøttede værktøjer
contrail-tools/kubectl-contrailstatus-.tjære kubectl contrailstatus plug-in
contrail-tools/cn2_debug_infra-.tjære CN2 debug-værktøjet
contrail-tools/uninstall.tar.gz Forældet

Contrail Analytics i release 23.4

Den valgfri Contrail Analytics-pakke kaldes Analytics Deployed og er tilgængelig til download fra Juniper Networks softwaredownload https://support.juniper.net/support/downloads/?p=contrail-netværkswebsted. Vælg Contrail Analytics-pakken fra den samme udgivelsesside, som du vælger Contrail Networking-manifesterne. Contrail Analytics er kun kompatibel med Contrail Networking i samme udgivelse.

Du skal bruge en konto for at downloade. Hvis du ikke har en konto, skal du kontakte din Juniper Networks salgsrepræsentant for at få oprettet en til dig.

For at installere Contrail Analytics, se Installer Contrail Analytics og CN2 Web Ul afsnit.

Overvåge

Overview

'Du kan overvåge CN2 på samme måde, som du overvåger andre Kubernetes-komponenter, ved at bruge kubectl eller andre standard Kubernetes-metoder.

Du kan også installere den valgfri Contrail Analytics-pakke, som pakker Prometheus, Grafana, Fluentd og anden populær open source-software sammen med Contrail-telemetrieksportører for at give dig indsigt i netværkets generelle sundhed, ydeevne og trafiktendenser. Inkluderet med Contrail Analytics er CN2 Web UI, som du kan bruge til at overvåge og konfigurere CN2-komponenter.

Derudover tilbyder vi et kubectl-plug-in, som du kan aktivere for at kontrollere status for CN2-komponenter fra kommandolinjen. Contrail-status-plug-in'et giver dig mulighed for at forespørge CN2-konfigurations-, kontrol- og dataplankomponenterne samt BGP- og XMPP-relationer.

Installer Contrail Analytics og CN2 Web Ul

Brug denne procedure til at installere Contrail Analytics og CN2 Web UI.

Contrail Analytics pakker populær open source-software som Prometheus, Grafana og Fluentd sammen med CN2-telemetrieksportører for at give dig en industristandard måde, hvorpå du kan overvåge og analysere dit netværk og netværksinfrastruktur. De indsamlede oplysninger omfatter logfiler, metrics, status for forskellige komponenter og flows.

Pakket med Contrail Analytics er CN2 Web UI, som giver dig mulighed for at overvåge og konfigurere CN2-komponenter.

Når du installerer Contrail Analytics, er alle analysekomponenter forudkonfigureret til at arbejde med hinanden. YDu har mulighed for at installere Contrail Analytics med en enkelt forekomst af Prometheus eller med HA Prometheus-understøttelse. HA Prometheus for Contrail Analytics er en Tech Preview funktion.

NOTE: Vi bruger Helm-diagrammer til at installere Contrail Analytics. Installer Helm 3.0 eller nyere på den vært, du bruger til at installere Contrail Analytics.

  1. Find Contrail Analytics-pakken, som du downloadede.
  2. Sådan installeres Contrail Analytics med en enkelt forekomst af Prometheus:
    Installer Single Cluster Shared Network
    Indstillingen –create-namespace opretter contrail-analytics-navnerummet. Du kan udelade denne indstilling, hvis din klynge allerede har defineret contrail-analytics-navneområdet.
    Contrail Analytics er installeret som en Node Port-tjeneste. Du kan nå tjenesten ved at angive IP-adressen på enhver node, der kører Contrail Analytics. Som standard er den port, der skal bruges, 30443.
  3. Sådan installeres Contrail Analytics med HA Prometheus-support (Tech Preview):
    NOTE: Denne funktion er klassificeret som en Juniper CN2 Technology Preview funktion. Disse funktioner er "som de er" og er til frivillig brug. Juniper Support vil forsøge at løse eventuelle problemer, som kunder oplever, når de bruger disse funktioner, og oprette fejlrapporter på vegne af supportsager. Juniper leverer muligvis ikke omfattende supporttjenester til Tech Preview funktioner.
    For yderligere information henvises til "Juniper CN2 Technology Previews (Tech Previews)" på side 82 eller kontakt Juniper Support.
    a. Udpak thanos-values.yaml file fra Contrail Analytics-pakken.
    Installer Single Cluster Shared Network
    Contrail Analytics bruger Thanos til at levere høj tilgængelighed for Prometheus. Thanos er et sæt open source-komponenter, der integreres problemfrit med Prometheus for at give et højt tilgængeligt metrisk system.
    b. Installer Contrail Analytics (med henvisning til thanos-values.yaml) file.
    Installer Single Cluster Shared Network
    Indstillingen –create-namespace opretter contrail-analytics-navnerummet. Du kan udelade denne indstilling, hvis din klynge allerede har defineret contrail-analytics-navneområdet.
    Contrail Analytics er installeret som en NodePort-tjeneste. Du kan nå tjenesten ved at angive IP-adressen på enhver node, der kører Contrail Analytics. Som standard er den port, der skal bruges, 3044 3.
  4. Bekræft, at analysekomponenterne er installeret og kører.
    Installer Single Cluster Shared Network
  5.  Når du har installeret Contrail Analytics, kan du få adgang til Grafana eller CN2 Web UI. For at få adgang til Grafana skal du pege din browser til https:// 30443/grafana/. Sørg for at inkludere den efterfølgende /. Standard Grafana administrator brugernavn/adgangskode er adnin/prom-operator. For at få adgang til CN2 Web Ul, peg din browser til https:// :30443. Standard CN2 Web Ul brugernavn/adgangskode er super/contrail123.}
    NOTE: CN2 Web Ul er klassificeret som en Juniper CN2 Technology Preview funktion. Disse funktioner er "som de er" og er til frivillig brug. Juniper Support vil forsøge at løse eventuelle problemer, som kunder oplever, når de bruger disse funktioner, og oprette fejlrapporter på vegne af supportsager. Juniper leverer muligvis ikke omfattende supporttjenester til Tech Preview funktioner.
    For yderligere information henvises til "Juniper CN2 Technology Previews (Tech Previews)" på side 82 eller kontakt Juniper Support.
  6. Sådan afinstallerer du Contrail Analytics:
    Installer Single Cluster Shared Network
  7. Sådan opgraderer du Contrail Analytics:
    Installer Single Cluster Shared Network
    eller (til opgradering af HA)
    Installer Single Cluster Shared Network

Firmalogo

Dokumenter/ressourcer

Juniper NETWORKS Cloud Native Contrail Networking [pdf] Instruktioner
Cloud Native Contrail Networking, Cloud, Native Contrail Networking, Contrail Networking

Referencer

Efterlad en kommentar

Din e-mailadresse vil ikke blive offentliggjort. Påkrævede felter er markeret *