CISCO Linux KVM Nexus Dashboard-vejledning

Linux KVM Nexus Dashboard

Specifikationer:

  • libvirt version: 4.5.0-23.el7_7.1.x86_64
  • Nexus Dashboard-version: 8.0.0

Produktbrugsvejledning:

Trin 1: Download billede af Cisco Nexus Dashboard

  1. Gå til
    Side for softwaredownload
    .
  2. Klik på Nexus Dashboard-software.
  3. Vælg den ønskede Nexus Dashboard-version fra venstre
    sidebjælke.
  4. Download Cisco Nexus Dashboard-billedet til Linux KVM
    (nd-dk9..qcow2).
  5. Kopier billedet til Linux KVM-serveren:
    # scp nd-dk9..qcow2 root@serveradresse:/home/nd-base

Trin 2: Opret nødvendige diskbilleder til noder

  1. Log ind på din KVM-vært som root.
  2. Opret en mappe til nodens snapshot.
  3. Opret et snapshot af basis qcow2-billedet:
    # qemu-img create -f qcow2 -b /home/nd-base/nd-dk9..qcow2 /home/nd-node1/nd-node1-disk1.qcow2

    Bemærk: For RHEL 8.6 skal du bruge en ekstra parameter som angivet i
    manuel.

  4. Opret et ekstra diskbillede for hver node:
    # qemu-img create -f qcow2 /home/nd-node1/nd-node1-disk2.qcow2 500G
  5. Gentag ovenstående trin for andre noder.

Trin 3: Opret VM til første node

  1. Åbn KVM-konsollen, og klik på Ny virtuel maskine.

Ofte stillede spørgsmål:

Q: Hvad er implementeringskravene for Nexus Dashboard i
Linux KVM?

A: Implementeringen kræver libvirt-versionen
4.5.0-23.el7_7.1.x86_64 og Nexus Dashboard version 8.0.0.

Q: Hvordan kan jeg verificere I/O-latenstiden for implementeringen?

A: For at verificere I/O-latens, opret en testmappe, kør
den angivne kommando ved hjælp af fio, og bekræft at latensen er under
20ms.

Q: Hvordan kopierer jeg Cisco Nexus Dashboard-billedet til Linux
KVM-server?

A: Du kan bruge scp til at kopiere billedet til serveren. Se
Trin 1 i instruktionerne for detaljerede trin.

"`

Implementering i Linux KVM
· Forudsætninger og retningslinjer, på side 1 · Implementering af Nexus Dashboard i Linux KVM, på side 2
Forudsætninger og retningslinjer
Før du fortsætter med at implementere Nexus Dashboard-klyngen i Linux KVM, skal du: · Sørge for, at KVM-formfaktoren understøtter dine skalerings- og servicekrav. Understøttelse af skalering og service samt co-hosting varierer afhængigt af klyngens formfaktor. Du kan bruge Nexus Dashboard Capacity Planning-værktøjet til at bekræfte, at den virtuelle formfaktor opfylder dine implementeringskrav. · Review og fuldfør de generelle forudsætninger beskrevet i Forudsætninger: Nexus Dashboard. · Review og fuldfør eventuelle yderligere forudsætninger, der er beskrevet i udgivelsesnoterne for de tjenester, du planlægger at implementere. · Sørg for, at CPU-familien, der bruges til Nexus Dashboard VM'erne, understøtter AVX-instruktionssættet. · Sørg for, at du har tilstrækkelige systemressourcer:
Implementering i Linux KVM 1

Implementering af Nexus Dashboard i Linux KVM

Implementering i Linux KVM

Tabel 1: Implementeringskrav
Krav · KVM-implementeringer understøttes kun for Nexus Dashboard Fabric Controller-tjenester. · Du skal implementere i CentOS 7.9 eller Red Hat Enterprise Linux 8.6 · Du skal have de understøttede versioner af Kernel og KVM: · For CentOS 7.9, Kernel version 3.10.0-957.el7.x86_64 og KVM version
libvirt-4.5.0-23.el7_7.1.x86_64
· Til RHEL 8.6, kerneversion 4.18.0-372.9.1.el8.x86_64 og KVM-version libvert
8.0.0
· 16 vCPU'er · 64 GB RAM · 550 GB disk
Hver node kræver en dedikeret diskpartition · Disken skal have en I/O-latens på 20 ms eller mindre.
Sådan verificerer du I/O-latenstiden: 1. Opret en testmappe.
F.eksample, test-data. 2. Kør følgende kommando:
# fio –rw=write –ioengine=sync –fdatasync=1 –directory=testdata –size=22m –bs=2300 –name=mintest
3. Når kommandoen er udført, skal du bekræfte, at 99.00th=[ ] i fsync/fdatasync/sync_file_range-sektionen er under 20 ms.
· Vi anbefaler, at hver Nexus Dashboard-node implementeres i en forskellig KVM-hypervisor.

Implementering af Nexus Dashboard i Linux KVM
Dette afsnit beskriver, hvordan man implementerer Cisco Nexus Dashboard-klynge i Linux KVM.
Før du begynder · Sørg for, at du opfylder kravene og retningslinjerne beskrevet i Forudsætninger og retningslinjer på side 1.

Implementering i Linux KVM 2

Implementering i Linux KVM

Implementering af Nexus Dashboard i Linux KVM

Procedure

Trin 1 Trin 2 Trin 3
Trin 4

Download billedet af Cisco Nexus Dashboard. a) Gå til siden for softwaredownload.
https://software.cisco.com/download/home/286327743/type/286328258
b) Klik på Nexus Dashboard-software. c) Vælg den Nexus Dashboard-version, du vil downloade, i venstre sidepanel. d) Download Cisco Nexus Dashboard-billedet til Linux KVM (nd-dk9. .qcow2). Kopier billedet til de Linux KVM-servere, hvor du vil hoste noderne. Du kan bruge scp til at kopiere billedet, f.eks.ampdet:
# scp nd-dk9. .qcow2 root@ :/home/nd-base
De følgende trin forudsætter, at du kopierede billedet til mappen /home/nd-base.
Opret de nødvendige diskbilleder til den første node. Du skal oprette et snapshot af det grundlæggende qcow2-billede, du downloadede, og bruge snapshotsene som diskbilleder til nodernes VM'er. Du skal også oprette et andet diskbillede til hver node. a) Log ind på din KVM-vært som root-bruger. b) Opret en mappe til nodens snapshot.
De følgende trin forudsætter, at du opretter snapshottet i mappen /home/nd-node1.
# mkdir -p /home/nd-node1/ # cd /home/nd-node1
c) Opret snapshottet. I følgende kommando skal du erstatte /home/nd-base/nd-dk9. .qcow2 med placeringen af basisbilledet, du oprettede i det forrige trin.
# qemu-img create -f qcow2 -b /home/nd-base/nd-dk9. .qcow2 /home/nd-node1/nd-node1-disk1.qcow2
Bemærk: Hvis du implementerer i RHEL 8.6, skal du muligvis angive en ekstra parameter for at definere formatet for destinationssnapshottet. I så fald skal du opdatere ovenstående kommando til følgende: # qemu-img create -f qcow2 -b /home/nd-base/nd-dk9.2.1.1a.qcow2 /home/nd-node1/nd-node1-disk1.qcow2 -F qcow2
d) Opret det ekstra diskbillede til noden. Hver node kræver to diske: et snapshot af det grundlæggende Nexus Dashboard qcow2-billede og en anden disk på 500 GB.
# qemu-img create -f qcow2 /home/nd-node1/nd-node1-disk2.qcow2 500G
Gentag det forrige trin for at oprette diskbillederne til den anden og tredje node. Før du fortsætter til næste trin, skal du have følgende:
· For den første node, mappen /home/nd-node1/ med to diskbilleder:

Implementering i Linux KVM 3

Implementering af Nexus Dashboard i Linux KVM

Implementering i Linux KVM

Trin 5

· /home/nd-node1/nd-node1-disk1.qcow2, som er et snapshot af det grundlæggende qcow2-billede, du downloadede i trin 1.
· /home/nd-node1/nd-node1-disk2.qcow2, som er en ny 500GB disk, du har oprettet.
· For den anden node, mappen /home/nd-node2/ med to diskbilleder: · /home/nd-node2/nd-node2-disk1.qcow2, som er et snapshot af det grundlæggende qcow2-billede, du downloadede i trin 1.
· /home/nd-node2/nd-node2-disk2.qcow2, som er en ny 500GB disk, du har oprettet.
· For den tredje node, mappen /home/nd-node3/ med to diskbilleder: · /home/nd-node1/nd-node3-disk1.qcow2, som er et snapshot af det basis-qcow2-billede, du downloadede i trin 1.
· /home/nd-node1/nd-node3-disk2.qcow2, som er en ny 500GB disk, du har oprettet.
Opret den første nodes VM. a) Åbn KVM-konsollen, og klik på Ny virtuel maskine.
Du kan åbne KVM-konsollen fra kommandolinjen ved hjælp af kommandoen virt-manager. Hvis dit Linux KVM-miljø ikke har en desktop GUI, skal du køre følgende kommando i stedet og fortsætte til trin 6.
virt-install –import –navn –hukommelse 65536 –vcpus 16 –os-type generisk –disksti=/sti/til/disk1/nd-node1-d1.qcow2,format=qcow2,bus=virtio –disksti=/sti/til/disk2/nd-node1-d2.qcow2,format=qcow2,bus=virtio –netværksbro= ,model=virtio –netværksbro= ,model=virtio –console pty,target_type=seriel –noautoconsole –autostart
b) På skærmbilledet Ny VM skal du vælge indstillingen Importer eksisterende diskbillede og klikke på Videresend. c) I feltet Angiv eksisterende lagersti skal du klikke på Gennemse og vælge nd-node1-disk1.qcow2. file.
Vi anbefaler, at hver nodes diskbillede gemmes på sin egen diskpartition.
d) Vælg Generisk for OS-type og Version, og klik derefter på Videresend. e) Angiv 64 GB hukommelse og 16 CPU'er, og klik derefter på Videresend. f) Indtast navnet på den virtuelle maskine, f.eks.ample nd-node1 og tjek Tilpas konfigurationen før
installationsmulighed. Klik derefter på Udfør. Bemærk: Du skal markere afkrydsningsfeltet Tilpas konfiguration før installation for at kunne foretage de tilpasninger af disk og netværkskort, der kræves for noden.
Vinduet med VM-detaljer åbnes.
I vinduet med VM-detaljer skal du ændre netværkskortets enhedsmodel: a) Vælg netværkskortet b) Vælg e1000 som Enhedsmodel. c) Vælg broenheden som Netværkskilde, og angiv navnet på "mgmt"-broen.
Note

Implementering i Linux KVM 4

Implementering i Linux KVM

Implementering af Nexus Dashboard i Linux KVM

Trin 6 Trin 7

Oprettelse af broenheder falder uden for denne vejlednings omfang og afhænger af distributionen og versionen af operativsystemet. Se operativsystemets dokumentation, f.eks. Red Hats Konfiguration af en netværksbro, for at få flere oplysninger.
I vinduet med VM-oplysninger skal du tilføje et andet NIC:
a) Klik på Tilføj hardware. b) På skærmbilledet Tilføj ny virtuel hardware skal du vælge Netværk. c) Vælg broenheden som Netværkskilde og angiv navnet på den oprettede "databro". d) Behold standardværdien for Mac-adressen. e) Vælg e1000 som Enhedsmodel.
I vinduet med VM-detaljer skal du tilføje det andet diskbillede:
a) Klik på Tilføj hardware. b) Vælg Lager på skærmbilledet Tilføj ny virtuel hardware. c) Vælg IDE for diskens busdriver. d) Vælg Vælg eller opret brugerdefineret lager, klik på Administrer, og vælg nd-node1-disk2.qcow2. file du oprettede. e) Klik på Udfør for at tilføje den anden disk.
Bemærk: Sørg for at aktivere indstillingen Kopier værts-CPU-konfiguration i brugergrænsefladen til Virtual Machine Manager.
Klik til sidst på Start installation for at afslutte oprettelsen af nodens VM.
Gentag de foregående trin for at implementere den anden og tredje node, og start derefter alle VM'er.
Bemærk: Hvis du implementerer en klynge med én node, kan du springe dette trin over.
Åbn en af nodens konsoller og konfigurer nodens grundlæggende oplysninger. Hvis dit Linux KVM-miljø ikke har en desktop GUI, skal du køre virsh-konsollen. kommandoen for at få adgang til nodens konsol. a) Tryk på en vilkårlig tast for at starte den indledende opsætning.
Du vil blive bedt om at køre hjælpeprogrammet til førstegangsopsætning:
[ OK ] Startede atomix-boot-setup. Starter initialt cloud-init-job (før netværk)… Starter logrotate… Starter logwatch… Starter keyhole…
[ OK ] Startede nøglehul. [ OK ] Startede logrotation. [ OK ] Startede logovervågning.
Tryk på en vilkårlig tast for at køre første opstart på denne konsol…
b) Indtast og bekræft administratoradgangskoden
Denne adgangskode vil blive brugt til SSH-login for rescue-brugeren samt til den indledende GUI-adgangskode.
Bemærk Du skal angive den samme adgangskode for alle noder, ellers mislykkes oprettelsen af klyngen.
Administratoradgangskode: Indtast administratoradgangskoden igen:

Implementering i Linux KVM 5

Implementering af Nexus Dashboard i Linux KVM

Implementering i Linux KVM

Trin 8 Trin 9 Trin 10

c) Indtast oplysninger om administrationsnetværket.
Administrationsnetværk: IP-adresse/maske: 192.168.9.172/24 Gateway: 192.168.9.1
d) For kun den første node skal den udpeges som "Klyngeleder".
Du logger ind på klyngeledernoden for at afslutte konfigurationen og oprettelsen af klyngen.
Er dette klyngelederen?: y
e) Vedrview og bekræft de indtastede oplysninger.
Du vil blive spurgt, om du vil ændre de indtastede oplysninger. Hvis alle felterne er korrekte, skal du vælge n for at fortsætte. Hvis du vil ændre nogen af de indtastede oplysninger, skal du indtaste y for at genstarte det grundlæggende konfigurationsscript.
Venligst vedrview Konfigurationsstyringsnetværket:
Gateway: 192.168.9.1 IP-adresse/maske: 192.168.9.172/24 Klyngeleder: ja
Genindtast konfiguration? (j/n): n
Gentag det forrige trin for at konfigurere de indledende oplysninger for den anden og tredje node.
Du behøver ikke at vente på, at den første nodekonfiguration er færdig. Du kan begynde at konfigurere de to andre noder samtidigt.
Bemærk Du skal angive den samme adgangskode for alle noder, ellers mislykkes oprettelsen af klyngen.
Trinene til at implementere den anden og tredje node er identiske med den eneste undtagelse, at du skal angive, at de ikke er klyngelederen.
Vent på, at den indledende bootstrap-proces er fuldført på alle noder.
Når du har angivet og bekræftet oplysninger om administrationsnetværket, konfigurerer den indledende opsætning på den første node (klyngeleder) netværket og åbner brugergrænsefladen, som du skal bruge til at tilføje to andre noder og fuldføre klyngeinstallationen.
Vent venligst på, at systemet starter op: [###########################] 100% Systemstart, vent venligst på, at brugergrænsefladen er online.
Systembrugergrænsefladen er online. Log venligst ind på https://192.168.9.172 for at fortsætte.
Åbn din browser og naviger til https:// for at åbne den grafiske brugergrænseflade.
Resten af konfigurationsarbejdsgangen foregår fra en af nodernes GUI. Du kan vælge en hvilken som helst af de noder, du har installeret, for at starte bootstrap-processen, og du behøver ikke at logge ind på eller konfigurere de to andre noder direkte.
Indtast den adgangskode, du angav i et forrige trin, og klik på Log ind

Implementering i Linux KVM 6

Implementering i Linux KVM

Implementering af Nexus Dashboard i Linux KVM

Trin 11

Angiv klyngeoplysningerne. Angiv følgende oplysninger på skærmbilledet Klyngeoplysninger i guiden Klyngeoprettelse:

Implementering i Linux KVM 7

Implementering af Nexus Dashboard i Linux KVM

Implementering i Linux KVM

a) Angiv klyngenavnet for denne Nexus Dashboard-klynge. Klyngenavnet skal overholde RFC-1123-kravene.
b) (Valgfrit) Hvis du vil aktivere IPv6-funktionalitet for klyngen, skal du markere afkrydsningsfeltet Aktiver IPv6. c) Klik på +Tilføj DNS-udbyder for at tilføje en eller flere DNS-servere.
Når du har indtastet oplysningerne, skal du klikke på fluebensikonet for at gemme dem. d) (Valgfrit) Klik på +Tilføj DNS-søgedomæne for at tilføje et søgedomæne.
Implementering i Linux KVM 8

Implementering i Linux KVM

Implementering af Nexus Dashboard i Linux KVM

Når du har indtastet oplysningerne, skal du klikke på fluebensikonet for at gemme dem.
e) (Valgfrit) Hvis du vil aktivere NTP-servergodkendelse, skal du markere afkrydsningsfeltet NTP-godkendelse og klikke på Tilføj NTP-nøgle. Angiv følgende oplysninger i de ekstra felter: · NTP-nøgle en kryptografisk nøgle, der bruges til at godkende NTP-trafikken mellem Nexus Dashboard og NTP-serveren(e). Du definerer NTP-serverne i det følgende trin, og flere NTP-servere kan bruge den samme NTP-nøgle.
· Nøgle-ID Hver NTP-nøgle skal tildeles et unikt nøgle-ID, som bruges til at identificere den relevante nøgle, der skal bruges ved verifikation af NTP-pakken.
· Godkendelsestype. Denne udgivelse understøtter MD5-, SHA- og AES128CMAC-godkendelsestyper.
· Vælg om denne nøgle er betroet. Nøgler, der ikke er betroet, kan ikke bruges til NTP-godkendelse.
Bemærk: Når du har indtastet oplysningerne, skal du klikke på fluebensikonet for at gemme dem. Se den komplette liste over NTP-godkendelseskrav og -retningslinjer under Forudsætninger og retningslinjer.
f) Klik på +Tilføj NTP-værtsnavn/IP-adresse for at tilføje en eller flere NTP-servere. Angiv følgende oplysninger i de ekstra felter: · NTP-vært skal du angive en IP-adresse; fuldt kvalificerede domænenavne (FQDN) understøttes ikke.
· Nøgle-ID Hvis du vil aktivere NTP-godkendelse for denne server, skal du angive nøgle-ID'et for den NTP-nøgle, du definerede i det forrige trin. Hvis NTP-godkendelse er deaktiveret, er dette felt nedtonet.
· Vælg, om denne NTP-server er Foretrukken.
Når du har indtastet oplysningerne, skal du klikke på fluebensikonet for at gemme dem. Bemærk: Hvis den node, du er logget ind på, kun er konfigureret med en IPv4-adresse, men du har markeret Aktiver IPv6 i et tidligere trin og angivet en IPv6-adresse til en NTP-server, får du følgende valideringsfejl:

Dette skyldes, at noden endnu ikke har en IPv6-adresse (den skal du angive i næste trin) og ikke kan oprette forbindelse til en IPv6-adresse på NTP-serveren. I dette tilfælde skal du blot afslutte med at angive de andre nødvendige oplysninger som beskrevet i de følgende trin og klikke på Næste for at fortsætte til næste skærmbillede, hvor du skal angive IPv6-adresser til noderne.
Hvis du vil tilføje yderligere NTP-servere, skal du klikke på +Tilføj NTP-vært igen og gentage dette undertrin.
g) Angiv en proxyserver, og klik derefter på Valider den.

Implementering i Linux KVM 9

Implementering af Nexus Dashboard i Linux KVM

Implementering i Linux KVM

Trin 12

For klynger, der ikke har direkte forbindelse til Cisco Cloud, anbefaler vi at konfigurere en proxyserver til at etablere forbindelsen. Dette giver dig mulighed for at mindske risikoen ved eksponering for ikke-kompatibel hardware og software i dine strukturer.
Du kan også vælge at angive en eller flere IP-adresser, der skal kommunikeres med, og som skal springe proxyen over, ved at klikke på +Tilføj Ignorer vært.
Proxyserveren skal have følgende URLaktiveret:
dcappcenter.cisco.com svc.intersight.com svc.ucs-connect.com svc-static1.intersight.com svc-static1.ucs-connect.com
Hvis du vil springe proxykonfigurationen over, skal du klikke på Spring proxy over.
h) (Valgfrit) Hvis din proxyserver krævede godkendelse, skal du aktivere Godkendelse kræves for proxy, angive loginoplysningerne og derefter klikke på Valider.
i) (Valgfrit) Udvid kategorien Avancerede indstillinger, og skift indstillingerne om nødvendigt.
Under avancerede indstillinger kan du konfigurere følgende:
· Lever brugerdefineret app-netværk og servicenetværk.
Applikationsoverlaynetværket definerer det adresseområde, der bruges af applikationens tjenester, der kører i Nexus Dashboard. Feltet er forudfyldt med standardværdien 172.17.0.1/16.
Servicenetværket er et internt netværk, der bruges af Nexus Dashboard og dets processer. Feltet er forudfyldt med standardværdien 100.80.0.0/16.
Hvis du tidligere har markeret indstillingen Aktiver IPv6, kan du også definere IPv6-undernettene for app- og tjenestenetværkene.
Applikations- og tjenestenetværk er beskrevet i afsnittet Forudsætninger og retningslinjer tidligere i dette dokument.
j) Klik på Næste for at fortsætte.
Opdater oplysningerne om den første node på skærmbilledet Nodeoplysninger.
Du har defineret administrationsnetværket og IP-adressen for den node, du i øjeblikket er logget ind på, under den indledende nodekonfiguration i tidligere trin, men du skal også angive datanetværksoplysningerne for noden, før du kan fortsætte med at tilføje de andre primære noder og oprette klyngen.

Implementering i Linux KVM 10

Implementering i Linux KVM

Implementering af Nexus Dashboard i Linux KVM

Implementering i Linux KVM 11

Implementering af Nexus Dashboard i Linux KVM

Implementering i Linux KVM

a) Klik på knappen Rediger ud for den første node.
Implementering i Linux KVM 12

Implementering i Linux KVM

Implementering af Nexus Dashboard i Linux KVM

Trin 13

Nodens serienummer, oplysninger om administrationsnetværk og type udfyldes automatisk, men du skal angive andre oplysninger.
b) Angiv navnet på noden. Nodens navn vil blive angivet som dens værtsnavn, så den skal følge RFC-1123-kravene.
c) Vælg Primær i rullemenuen Type. De første 3 noder i klyngen skal indstilles til Primær. Du tilføjer de sekundære noder i et senere trin, hvis det er nødvendigt, for at aktivere cohosting af tjenester og højere skalering.
d) I området Datanetværk skal du angive nodens datanetværksoplysninger. Du skal angive datanetværkets IP-adresse, netmaske og gateway. Du kan eventuelt også angive VLAN-ID'et for netværket. For de fleste implementeringer kan du lade feltet VLAN-ID stå tomt. Hvis du havde aktiveret IPv6-funktionalitet på et tidligere skærmbillede, skal du også angive IPv6-adresse, netmaske og gateway. Bemærk: Hvis du vil angive IPv6-oplysninger, skal du gøre det under klyngeopstartsprocessen. Hvis du vil ændre IP-konfigurationen senere, skal du genimplementere klyngen. Alle noder i klyngen skal være konfigureret med enten kun IPv4, kun IPv6 eller dual stack IPv4/IPv6.
e) (Valgfrit) Hvis din klynge er implementeret i L3 HA-tilstand, skal du aktivere BGP for datanetværket. BGP-konfiguration er påkrævet for funktionen Persistente IP'er, der bruges af nogle tjenester, f.eks. Insights og Fabric Controller. Denne funktion er beskrevet mere detaljeret i afsnittene Forudsætninger og retningslinjer og "Persistente IP-adresser" i brugervejledningen til Cisco Nexus Dashboard. Bemærk: Du kan aktivere BGP på nuværende tidspunkt eller i Nexus Dashboard GUI, når klyngen er implementeret.
Hvis du vælger at aktivere BGP, skal du også angive følgende oplysninger: · ASN (BGP Autonomous System Number) for denne node. Du kan konfigurere den samme ASN for alle noder eller en forskellig ASN pr. node.
· For ren IPv6, router-ID'et for denne node. Router-ID'et skal være en IPv4-adresse, f.eks.ample 1.1.1.1
· BGP Peer-detaljer, som inkluderer peerens IPv4- eller IPv6-adresse og peerens ASN.
f) Klik på Gem for at gemme ændringerne. Klik på Tilføj node på skærmbilledet Nodeoplysninger for at tilføje den anden node til klyngen. Hvis du implementerer en klynge med én node, skal du springe dette trin over.

Implementering i Linux KVM 13

Implementering af Nexus Dashboard i Linux KVM

Implementering i Linux KVM

a) I området Implementeringsoplysninger skal du angive administrations-IP-adressen og adgangskoden til den anden node.
Implementering i Linux KVM 14

Implementering i Linux KVM

Implementering af Nexus Dashboard i Linux KVM

Trin 14

Du definerede administrationsnetværksoplysningerne og adgangskoden under de indledende trin i nodekonfigurationen.
b) Klik på Valider for at bekræfte forbindelsen til noden. Nodens serienummer og oplysninger om administrationsnetværket udfyldes automatisk, når forbindelsen er valideret.
c) Angiv navnet på noden. d) Vælg Primær i rullemenuen Type.
De første 3 noder i klyngen skal indstilles til Primære. Du tilføjer de sekundære noder i et senere trin, hvis det er nødvendigt, for at aktivere cohosting af tjenester og højere skalering.
e) I området Datanetværk skal du angive nodens datanetværksoplysninger. Du skal angive datanetværkets IP-adresse, netmaske og gateway. Du kan eventuelt også angive netværkets VLAN-ID. For de fleste implementeringer kan du lade feltet VLAN-ID stå tomt. Hvis du havde aktiveret IPv6-funktionalitet på et tidligere skærmbillede, skal du også angive IPv6-adresse, netmaske og gateway.
Bemærk: Hvis du vil angive IPv6-oplysninger, skal du gøre det under cluster bootstrap-processen. Hvis du vil ændre IP-konfigurationen senere, skal du geninstallere clusteren. Alle noder i clusteren skal være konfigureret med enten kun IPv4, kun IPv6 eller dual stack IPv4/IPv6.
f) (Valgfrit) Hvis din klynge er implementeret i L3 HA-tilstand, skal du aktivere BGP for datanetværket. BGP-konfiguration er påkrævet for funktionen Persistente IP'er, der bruges af nogle tjenester, f.eks. Insights og Fabric Controller. Denne funktion er beskrevet mere detaljeret i afsnittene Forudsætninger og retningslinjer og "Persistente IP-adresser" i brugervejledningen til Cisco Nexus Dashboard.
Bemærk: Du kan aktivere BGP på nuværende tidspunkt eller i Nexus Dashboard GUI, når klyngen er implementeret.
Hvis du vælger at aktivere BGP, skal du også angive følgende oplysninger: · ASN (BGP Autonomous System Number) for denne node. Du kan konfigurere den samme ASN for alle noder eller en forskellig ASN pr. node.
· For ren IPv6, router-ID'et for denne node. Router-ID'et skal være en IPv4-adresse, f.eks.ample 1.1.1.1
· BGP Peer-detaljer, som inkluderer peerens IPv4- eller IPv6-adresse og peerens ASN.
g) Klik på Gem for at gemme ændringerne. h) Gentag dette trin for den sidste (tredje) primære node i klyngen. Bekræft de angivne oplysninger på siden Nodeoplysninger, og klik på Næste for at fortsætte.

Implementering i Linux KVM 15

Implementering af Nexus Dashboard i Linux KVM

Implementering i Linux KVM

Trin 15
Trin 16 Trin 17

Vælg implementeringstilstanden for klyngen. a) Vælg de tjenester, du vil aktivere.
Før version 3.1(1) skulle du downloade og installere individuelle tjenester, efter den første klyngeinstallation var fuldført. Nu kan du vælge at aktivere tjenesterne under den første installation.
Bemærk: Afhængigt af antallet af noder i klyngen understøttes visse tjenester eller cohosting-scenarier muligvis ikke. Hvis du ikke kan vælge det ønskede antal tjenester, skal du klikke på Tilbage og sørge for, at du har angivet tilstrækkeligt med sekundære noder i det forrige trin.
b) Klik på Tilføj permanente tjeneste-IP'er/puljer for at angive en eller flere permanente IP'er, der kræves af Insights- eller Fabric Controller-tjenester.
Du kan finde flere oplysninger om permanente IP-adresser i afsnittet Forudsætninger og retningslinjer.
c) Klik på Næste for at fortsætte.
På oversigtsskærmen, review og bekræft konfigurationsoplysningerne, og klik på Gem for at opbygge klyngen.
Under node bootstrap og cluster bounce-processen vises den samlede status samt hver nodes individuelle status i brugergrænsefladen. Hvis du ikke kan se bootstrap-statussen, skal du manuelt opdatere siden i din browser for at opdatere status.
Det kan tage op til 30 minutter, før klyngen dannes, og alle tjenesterne starter. Når klyngekonfigurationen er færdig, genindlæses siden til Nexus Dashboard GUI.
Bekræft, at klyngen er sund.
Det kan tage op til 30 minutter, før klyngen dannes, og alle tjenesterne starter.

Implementering i Linux KVM 16

Implementering i Linux KVM

Implementering af Nexus Dashboard i Linux KVM

Når klyngen bliver tilgængelig, kan du få adgang til den ved at gå til en af dine noders administrations-IP-adresser. Standardadgangskoden for administratorbrugeren er den samme som den redningsbrugeradgangskode, du valgte for den første node. I løbet af denne tid viser brugergrænsefladen et banner øverst, der angiver "Tjenesteinstallation er i gang, Nexus Dashboard-konfigurationsopgaver er i øjeblikket deaktiveret":

Når alle klynger er installeret, og alle tjenester er startet, kan du kontrollere Overview side for at sikre, at klyngen er sund:

Alternativt kan du logge ind på en hvilken som helst node via SSH som redningsbruger ved hjælp af den adgangskode, du angav under nodeimplementeringen, og bruge kommandoen acs health til at kontrollere status::
· Mens klyngen konvergerer, kan du muligvis se følgende output:
$ acs sundhed
k8s installation er i gang
$ acs sundhed
k8s-tjenester ikke i den ønskede tilstand – […] $ acs health
k8s: Etcd-klyngen er ikke klar · Når klyngen er oppe og kører, vises følgende output:
Implementering i Linux KVM 17

Implementering af Nexus Dashboard i Linux KVM

Implementering i Linux KVM

Trin 18

$ acs sundhed Alle komponenter er sunde
Bemærk I nogle situationer kan du slukke og tænde en node igen og opdage, at den sidder fast i denne situation.tage: udrul basissystemtjenester Dette skyldes et problem med etcd på noden efter en genstart af pND-klyngen (Physical Nexus Dashboard). For at løse problemet skal du indtaste kommandoen acs reboot clean på den berørte node.
Når du har implementeret dit Nexus Dashboard og dine Nexus-tjenester, kan du konfigurere hver tjeneste som beskrevet i dens konfigurations- og driftsartikler.
· For Fabric Controller, se hvidbogen om NDFC-personakonfiguration og dokumentationsbiblioteket. · For Orchestrator, se dokumentationssiden. · For Insights, se dokumentationsbiblioteket.

Implementering i Linux KVM 18

Dokumenter/ressourcer

CISCO Linux KVM Nexus Dashboard [pdf] Instruktioner
Linux KVM Nexus Dashboard, KVM Nexus Dashboard, Nexus Dashboard

Referencer

Efterlad en kommentar

Din e-mailadresse vil ikke blive offentliggjort. Påkrævede felter er markeret *