Інструкцыі па кіраванні прыладай CISCO Linux KVM Nexus

Панэль кіравання Linux KVM Nexus

тэхнічныя характарыстыкі:

  • libvirt version: 4.5.0-23.el7_7.1.x86_64
  • Версія панэлі кіравання Nexus: 8.0.0

Інструкцыя па выкарыстанні прадукту:

Крок 1: Загрузіце вобраз панэлі кіравання Cisco Nexus

  1. Перайдзіце да
    Старонка загрузкі праграмнага забеспячэння
    .
  2. Націсніце на праграмнае забеспячэнне Nexus Dashboard.
  3. Выберыце патрэбную версію панэлі кіравання Nexus злева
    бакавая панэль.
  4. Спампаваць вобраз панэлі кіравання Cisco Nexus для Linux KVM
    (nd-dk9..qcow2).
  5. Скапіюйце вобраз на сервер Linux KVM:
    # scp nd-dk9..qcow2 root@адрас_сервера:/home/nd-base

Крок 2: Стварэнне неабходных вобразаў дыскаў для вузлоў

  1. Увайдзіце ў свой KVM-хост як root.
  2. Стварыце каталог для здымка вузла.
  3. Стварыце здымак базавага вобраза qcow2:
    # qemu-img create -f qcow2 -b /home/nd-base/nd-dk9..qcow2 /home/nd-node1/nd-node1-disk1.qcow2

    Заўвага: Для RHEL 8.6 выкарыстоўвайце дадатковы параметр, як паказана ў
    кіраўніцтва.

  4. Стварыце дадатковы вобраз дыска для кожнага вузла:
    # qemu-img create -f qcow2 /home/nd-node1/nd-node1-disk2.qcow2 500G
  5. Паўтарыце вышэйапісаны крок для іншых вузлоў.

Крок 3: Стварэнне віртуальнай машыны для першага вузла

  1. Адкрыйце кансоль KVM і націсніце «Новая віртуальная машына».

FAQ:

Пытанне: Якія патрабаванні да разгортвання панэлі кіравання Nexus у
KVM у Лінуксе?

A: Для разгортвання патрабуецца версія libvirt
4.5.0-23.el7_7.1.x86_64 і панэль кіравання Nexus версіі 8.0.0.

Пытанне: Як я магу праверыць затрымку ўводу/вываду для разгортвання?

A: Каб праверыць затрымку ўводу/вываду, стварыце тэставы каталог, запусціце
указаную каманду з дапамогай fio і пераканайцеся, што затрымка ніжэйшая за
20 мс.

Пытанне: Як скапіяваць вобраз панэлі кіравання Cisco Nexus у Linux?
KVM-сервер?

A: Вы можаце выкарыстоўваць scp для капіявання выявы на сервер. Глядзіце
Крок 1 у інструкцыі для падрабязных крокаў.

“`

Разгортванне ў Linux KVM
· Патрабаванні і рэкамендацыі, на старонцы 1 · Разгортванне панэлі кіравання Nexus у Linux KVM, на старонцы 2
Перадумовы і рэкамендацыі
Перш чым працягнуць разгортванне кластара Nexus Dashboard у Linux KVM, неабходна: · Пераканацца, што форм-фактар ​​KVM адпавядае вашым патрабаванням да маштабавання і паслуг. Падтрымка маштабавання і паслуг, а таксама сумесны хостынг залежаць ад форм-фактара кластара. Вы можаце выкарыстоўваць інструмент планавання магутнасці Nexus Dashboard, каб пераканацца, што віртуальны форм-фактар ​​адпавядае вашым патрабаванням да разгортвання. · Review і выканайце агульныя патрабаванні, апісаныя ў раздзеле Патрабаванні: Панэль кіравання Nexus. · Review і выканайце ўсе дадатковыя патрабаванні, апісаныя ў заўвагах да выпуску для службаў, якія вы плануеце разгарнуць. · Пераканайцеся, што сямейства працэсараў, якое выкарыстоўваецца для віртуальных машын Nexus Dashboard, падтрымлівае набор інструкцый AVX. · Пераканайцеся, што ў вас дастаткова сістэмных рэсурсаў:
Разгортванне ў Linux KVM 1

Разгортванне панэлі кіравання Nexus у Linux KVM

Разгортванне ў Linux KVM

Табліца 1: Патрабаванні да разгортвання
Патрабаванні · Разгортванне KVM падтрымліваецца толькі для службаў Nexus Dashboard Fabric Controller. · Вы павінны разгортваць у CentOS 7.9 або Red Hat Enterprise Linux 8.6 · Вы павінны мець падтрымоўваныя версіі ядра і KVM: · Для CentOS 7.9, версія ядра 3.10.0-957.el7.x86_64 і версія KVM
libvirt-4.5.0-23.el7_7.1.x86_64
· Для RHEL 8.6, версіі ядра 4.18.0-372.9.1.el8.x86_64 і версіі KVM libvert
8.0.0
· 16 віртуальных працэсараў · 64 ГБ аператыўнай памяці · дыск на 550 ГБ
Кожны вузел патрабуе асобнага раздзела дыска · Затрымка ўводу/вываду дыска павінна складаць 20 мс або менш.
Каб праверыць затрымку ўводу/вываду: 1. Стварыце тэставы каталог.
Напрыкладample, test-data. 2. Выканайце наступную каманду:
# fio –rw=запіс –ioengine=сінхранізацыя –fdatasync=1 –дырэктар=тэставыя-дадзеныя –сіметр=22м –bs=2300 –назва=мойтэст
3. Пасля выканання каманды пераканайцеся, што 99.00th=[ ] у fsync/fdatasync/sync_fileРаздзел _range меншы за 20 мс.
· Мы рэкамендуем разгортваць кожны вузел панэлі кіравання Nexus у асобным гіпервізары KVM.

Разгортванне панэлі кіравання Nexus у Linux KVM
У гэтым раздзеле апісваецца, як разгарнуць кластар Cisco Nexus Dashboard у Linux KVM.
Перад пачаткам · Пераканайцеся, што вы адпавядаеце патрабаванням і рэкамендацыям, апісаным у раздзеле «Патрабаванні і рэкамендацыі» на старонцы 1.

Разгортванне ў Linux KVM 2

Разгортванне ў Linux KVM

Разгортванне панэлі кіравання Nexus у Linux KVM

Працэдура

Крок 1 Крок 2 Крок 3
Крок 4

Запампуйце вобраз панэлі кіравання Cisco Nexus. а) Перайдзіце на старонку загрузкі праграмнага забеспячэння.
https://software.cisco.com/download/home/286327743/type/286328258
b) Націсніце «Праграмнае забеспячэнне Nexus Dashboard». c) У левай бакавой панэлі выберыце версію Nexus Dashboard, якую вы хочаце спампаваць. d) Загрузіце вобраз панэлі кіравання Cisco Nexus для Linux KVM (nd-dk9. .qcow2). Скапіруйце вобраз на серверы Linux KVM, дзе вы будзеце размяшчаць вузлы. Вы можаце выкарыстоўваць scp для капіявання вобраза, напрыкладampль:
#scp nd-dk9. .qcow2 root@ :/home/nd-base
Наступныя крокі мяркуюць, што вы скапіявалі выяву ў каталог /home/nd-base.
Стварыце неабходныя вобразы дыскаў для першага вузла. Вы створыце здымак базавага вобраза qcow2, які вы спампавалі, і выкарыстаеце здымкі ў якасці вобразаў дыскаў для віртуальных машын вузлоў. Вам таксама трэба будзе стварыць другі вобраз дыска для кожнага вузла. а) Увайдзіце ў свой хост KVM як карыстальнік root. б) Стварыце каталог для здымка вузла.
Наступныя крокі мяркуюць, што здымак створаны ў каталогу /home/nd-node1.
# mkdir -p /home/nd-node1/ # cd /home/nd-node1
c) Стварыце здымак. У наступнай камандзе заменіце /home/nd-base/nd-dk9. .qcow2 з указаннем месцазнаходжання базавага вобраза, створанага на папярэднім кроку.
# qemu-img create -f qcow2 -b /home/nd-base/nd-dk9. .qcow2 /home/nd-node1/nd-node1-disk1.qcow2
Заўвага. Калі вы разгортваеце RHEL 8.6, вам можа спатрэбіцца падаць дадатковы параметр, каб вызначыць фармат здымка месца прызначэння. У гэтым выпадку абнавіце прыведзеную вышэй каманду наступным чынам: # qemu-img create -f qcow2 -b /home/nd-base/nd-dk9.2.1.1a.qcow2 /home/nd-node1/nd-node1-disk1.qcow2 -F qcow2
г) Стварыце дадатковы вобраз дыска для вузла. Для кожнага вузла патрабуецца два дыскі: здымак базавага вобраза Nexus Dashboard qcow2 і другі дыск на 500 ГБ.
# qemu-img create -f qcow2 /home/nd-node1/nd-node1-disk2.qcow2 500G
Паўтарыце папярэдні крок, каб стварыць вобразы дыскаў для другога і трэцяга вузлоў. Перад тым, як перайсці да наступнага кроку, у вас павінна быць наступнае:
· Для першага вузла, каталог /home/nd-node1/ з двума вобразамі дыскаў:

Разгортванне ў Linux KVM 3

Разгортванне панэлі кіравання Nexus у Linux KVM

Разгортванне ў Linux KVM

Крок 5

· /home/nd-node1/nd-node1-disk1.qcow2, які з'яўляецца здымкам базавага вобраза qcow2, які вы спампавалі на кроку 1.
· /home/nd-node1/nd-node1-disk2.qcow2 — гэта новы створаны вамі дыск памерам 500 ГБ.
· Для другога вузла, каталог /home/nd-node2/ з двума вобразамі дыскаў: · /home/nd-node2/nd-node2-disk1.qcow2, які з'яўляецца здымкам базавага вобраза qcow2, які вы спампавалі на кроку 1.
· /home/nd-node2/nd-node2-disk2.qcow2 — гэта новы створаны вамі дыск памерам 500 ГБ.
· Для трэцяга вузла, каталог /home/nd-node3/ з двума вобразамі дыскаў: · /home/nd-node1/nd-node3-disk1.qcow2, які з'яўляецца здымкам базавага вобраза qcow2, які вы спампавалі на кроку 1.
· /home/nd-node1/nd-node3-disk2.qcow2 — гэта новы створаны вамі дыск памерам 500 ГБ.
Стварыце віртуальную машыну першага вузла. а) Адкрыйце кансоль KVM і націсніце «Новая віртуальная машына».
Вы можаце адкрыць кансоль KVM з каманднага радка з дапамогай каманды virt-manager. Калі ваша асяроддзе Linux KVM не мае графічнага інтэрфейсу працоўнага стала, выканайце наступную каманду і перайдзіце да кроку 6.
virt-install –import –name –памяць 65536 –vcpus 16 –тып аперацыйнай сістэмы агульны –шлях_дыска=/шлях/да/дыска1/nd-вузла1-d1.qcow2,фармат=qcow2,шына=virtio –шлях_дыска=/шлях/да/дыска2/nd-вузла1-d2.qcow2,фармат=qcow2,шына=virtio –сеткавы мост= ,мадэль=virtio –сеткавы мост= ,мадэль=virtio –кансольная праграма,тып_мэты=серыйны –безаўтакансолі –аўтазапуск
b) На экране «Новая віртуальная машына» абярыце опцыю «Імпартаваць існуючы вобраз дыска» і націсніце «Наперад». c) У полі «Падаць існуючы шлях да сховішча» націсніце «Агляд» і выберыце nd-node1-disk1.qcow2. file.
Мы рэкамендуем захоўваць вобраз дыска кожнага вузла на асобным раздзеле дыска.
г) Выберыце «Агульная» для тыпу і версіі аперацыйнай сістэмы, а затым націсніце «Наперад». д) Укажыце 64 ГБ памяці і 16 працэсараў, а затым націсніце «Наперад». е) Увядзіце назву віртуальнай машыны, напрыклад,ample nd-node1 і праверце канфігурацыю "Наладзіць" перад
опцыю ўстаноўкі. Затым націсніце «Завершыць». Заўвага: Каб мець магчымасць наладзіць дыск і сеткавую карту, неабходныя для вузла, неабходна ўсталяваць сцяжок «Наладзіць канфігурацыю перад усталёўкай».
Адкрыецца акно з падрабязнасцямі віртуальнай машыны.
У акне звестак пра віртуальную машыну змяніце мадэль прылады сеткавай карты: а) Выберыце сеткавую карту b) У якасці мадэлі прылады выберыце e1000. c) У якасці крыніцы сеткі выберыце прыладу моста і ўкажыце назву моста «mgmt».
Заўвага

Разгортванне ў Linux KVM 4

Разгортванне ў Linux KVM

Разгортванне панэлі кіравання Nexus у Linux KVM

Крок 6 Крок 7

Стварэнне прылад маста выходзіць за рамкі гэтага кіраўніцтва і залежыць ад дыстрыбутыва і версіі аперацыйнай сістэмы. Для атрымання дадатковай інфармацыі звярніцеся да дакументацыі аперацыйнай сістэмы, напрыклад, да артыкула Red Hat "Настройка сеткавага моста".
У акне звестак пра віртуальную машыну дадайце другую сеткавую карту:
a) Націсніце «Дадаць абсталяванне». b) На экране «Дадаць новае віртуальнае абсталяванне» выберыце «Сетка». c) У полі «Крыніца сеткі» выберыце прыладу моста і ўкажыце назву створанага моста «дадзеных». d) Пакіньце значэнне MAC-адраса па змаўчанні. e) У полі «Мадэль прылады» выберыце e1000.
У акне звестак пра віртуальную машыну дадайце другі вобраз дыска:
a) Націсніце «Дадаць абсталяванне». b) На экране «Дадаць новае віртуальнае абсталяванне» выберыце «Сховішча». c) У якасці драйвера шыны дыска выберыце IDE. d) Выберыце «Выбраць або стварыць карыстальніцкае сховішча», націсніце «Кіраваць» і выберыце nd-node1-disk2.qcow2. file вы стварылі. e) Націсніце «Завершыць», каб дадаць другі дыск.
Заўвага. Пераканайцеся, што ў карыстальніцкім інтэрфейсе дыспетчара віртуальных машын уключана опцыя «Капіяваць канфігурацыю працэсара хоста».
Нарэшце, націсніце «Пачаць усталёўку», каб завяршыць стварэнне віртуальнай машыны вузла.
Паўтарыце папярэднія крокі, каб разгарнуць другі і трэці вузлы, а затым запусціце ўсе віртуальныя машыны.
Заўвага. Калі вы разгортваеце кластар з адным вузлом, гэты крок можна прапусціць.
Адкрыйце адну з кансоляў вузла і наладзьце асноўную інфармацыю пра вузел. Калі ваша асяроддзе Linux KVM не мае графічнага інтэрфейсу працоўнага стала, запусціце кансоль virsh. каманда для доступу да кансолі вузла. а) Націсніце любую клавішу, каб пачаць пачатковую наладу.
Вам будзе прапанавана запусціць утыліту першай налады:
[ OK ] Пачата atomix-boot-setup. Пачатак пачатковага задання cloud-init (перад падключэннем да сеткі)… Пачатак logrotate… Пачатак logwatch… Пачатак keyhole…
[ OK ] Запушчана замочная свідравіна. [ OK ] Запушчана лагаратацыя. [ OK ] Запушчана назіранне за журналам.
Націсніце любую клавішу, каб запусціць наладу першай загрузкі на гэтай кансолі…
б) Увядзіце і пацвердзіце пароль адміністратара
Гэты пароль будзе выкарыстоўвацца для ўваходу ў сістэму rescue-user праз SSH, а таксама для пачатковага пароля графічнага інтэрфейсу.
Заўвага. Вы павінны ўвесці аднолькавы пароль для ўсіх вузлоў, інакш стварэнне кластара не атрымаецца.
Пароль адміністратара: Увядзіце пароль адміністратара яшчэ раз:

Разгортванне ў Linux KVM 5

Разгортванне панэлі кіравання Nexus у Linux KVM

Разгортванне ў Linux KVM

Крок 8 Крок 9 Крок 10

c) Увядзіце інфармацыю аб сетцы кіравання.
Сетка кіравання: IP-адрас/маска: 192.168.9.172/24 Шлюз: 192.168.9.1
г) Толькі першы вузел пазначце як «Кіраўнік кластара».
Вам трэба будзе ўвайсці ў вузел лідара кластара, каб завяршыць канфігурацыю і стварэнне кластара.
Гэта лідар кластара?: y
e) Review і пацвердзіце ўведзеную інфармацыю.
Вам будзе прапанавана змяніць уведзеную інфармацыю. Калі ўсе палі правільныя, абярыце «n», каб працягнуць. Калі вы хочаце змяніць якую-небудзь з уведзеных звестак, увядзіце «y», каб перазапусціць базавы сцэнар канфігурацыі.
Калі ласка, паўторнаview сетка кіравання канфігурацыямі:
Шлюз: 192.168.9.1 IP-адрас/маска: 192.168.9.172/24 Лідар кластара: так
Зноў увесці канфігурацыю? (так/не): n
Паўтарыце папярэдні крок, каб наладзіць пачатковую інфармацыю для другога і трэцяга вузлоў.
Вам не трэба чакаць завяршэння канфігурацыі першага вузла, вы можаце пачаць канфігураваць два іншыя вузлы адначасова.
Заўвага. Вы павінны ўвесці аднолькавы пароль для ўсіх вузлоў, інакш стварэнне кластара не атрымаецца.
Крокі па разгортванні другога і трэцяга вузлоў ідэнтычныя, за выключэннем таго, што вы павінны пазначыць, што яны не з'яўляюцца лідэрамі кластара.
Пачакайце, пакуль пачатковы працэс загрузкі завершыцца на ўсіх вузлах.
Пасля таго, як вы падасце і пацвердзіце інфармацыю аб сетцы кіравання, пачатковая налада на першым вузле (лідар кластара) канфігуруе сетку і адкрывае карыстальніцкі інтэрфейс, які вы будзеце выкарыстоўваць для дадання двух іншых вузлоў і завяршэння разгортвання кластара.
Калі ласка, пачакайце загрузкі сістэмы: [###########################] Сістэма запушчана на 100%, калі ласка, пачакайце, пакуль інтэрфейс падключыцца да інтэрнэту.
Інтэрфейс сістэмы ў інтэрнэце, калі ласка, увайдзіце па спасылцы https://192.168.9.172, каб працягнуць.
Адкрыйце браўзер і перайдзіце па спасылцы https:// каб адкрыць графічны інтэрфейс.
Астатняя частка працэсу канфігурацыі выконваецца з графічнага інтэрфейсу аднаго з вузлоў. Вы можаце выбраць любы з разгорнутых вузлоў, каб пачаць працэс пачатковай загрузкі, і вам не трэба ўваходзіць у сістэму або наладжваць два іншыя вузлы непасрэдна.
Увядзіце пароль, які вы ўвялі на папярэднім кроку, і націсніце «Увайсці»

Разгортванне ў Linux KVM 6

Разгортванне ў Linux KVM

Разгортванне панэлі кіравання Nexus у Linux KVM

Крок 11

Укажыце звесткі пра кластар. На экране «Звесткі пра кластар» майстра стварэння кластара ўкажыце наступную інфармацыю:

Разгортванне ў Linux KVM 7

Разгортванне панэлі кіравання Nexus у Linux KVM

Разгортванне ў Linux KVM

а) Укажыце назву кластара для гэтага кластара Nexus Dashboard. Назва кластара павінна адпавядаць патрабаванням RFC-1123.
b) (Неабавязкова) Калі вы хочаце ўключыць функцыянальнасць IPv6 для кластара, пастаўце галачку ў полі «Уключыць IPv6». c) Націсніце «+Дадаць пастаўшчыка DNS», каб дадаць адзін або некалькі DNS-сервераў.
Пасля ўводу інфармацыі націсніце значок галачкі, каб захаваць яе. d) (Неабавязкова) Націсніце +Дадаць пошукавы дамен DNS, каб дадаць пошукавы дамен.
Разгортванне ў Linux KVM 8

Разгортванне ў Linux KVM

Разгортванне панэлі кіравання Nexus у Linux KVM

Пасля ўводу інфармацыі націсніце значок галачкі, каб захаваць яе.
e) (Неабавязкова) Калі вы хочаце ўключыць аўтэнтыфікацыю NTP-сервера, усталюйце сцяжок «Аўтэнтыфікацыя NTP» і націсніце «Дадаць ключ NTP». У дадатковых палях укажыце наступную інфармацыю: · Ключ NTP — крыптаграфічны ключ, які выкарыстоўваецца для аўтэнтыфікацыі NTP-трафіку паміж панэллю кіравання Nexus і серверам(-амі) NTP. Вы вызначыце NTP-серверы на наступным кроку, і некалькі NTP-сервераў могуць выкарыстоўваць адзін і той жа ключ NTP.
· Ідэнтыфікатар ключа кожнаму ключу NTP павінен быць прызначаны ўнікальны ідэнтыфікатар ключа, які выкарыстоўваецца для ідэнтыфікацыі адпаведнага ключа для выкарыстання пры праверцы NTP-пакета.
· Тып аўтэнтыфікацыі: гэты рэліз падтрымлівае тыпы аўтэнтыфікацыі MD5, SHA і AES128CMAC.
· Выберыце, ці з'яўляецца гэты ключ давераным. Недавераныя ключы нельга выкарыстоўваць для аўтэнтыфікацыі NTP.
Заўвага. Пасля ўводу інфармацыі націсніце значок галачкі, каб захаваць яе. Поўны спіс патрабаванняў і рэкамендацый па аўтэнтыфікацыі NTP глядзіце ў раздзеле «Патрабаванні і рэкамендацыі».
f) Націсніце «+Дадаць імя хаста NTP/IP-адрас», каб дадаць адзін або некалькі сервераў NTP. У дадатковых палях укажыце наступную інфармацыю: · Хост NTP — вы павінны ўвесці IP-адрас; поўныя даменныя імёны (FQDN) не падтрымліваюцца.
· Ідэнтыфікатар ключа: калі вы хочаце ўключыць аўтэнтыфікацыю NTP для гэтага сервера, укажыце ідэнтыфікатар ключа NTP, які вы вызначылі на папярэднім кроку. Калі аўтэнтыфікацыя NTP адключана, гэтае поле неактыўнае.
· Выберыце, ці з'яўляецца гэты NTP-сервер пераважным.
Пасля ўводу інфармацыі націсніце значок галачкі, каб захаваць яе. Заўвага: Калі вузел, у які вы ўвайшлі, настроены толькі з адрасам IPv4, але вы ў папярэднім кроку паставілі галачку насупраць опцыі «Уключыць IPv6» і ўвялі адрас IPv6 для NTP-сервера, вы атрымаеце наступную памылку праверкі:

Гэта адбываецца таму, што вузел пакуль не мае адраса IPv6 (вы падасце яго на наступным кроку) і не можа падключыцца да адраса IPv6 сервера NTP. У гэтым выпадку проста завяршыце ўвод іншай неабходнай інфармацыі, як апісана ў наступных кроках, і націсніце «Далей», каб перайсці да наступнага экрана, дзе вы падасце адрасы IPv6 для вузлоў.
Калі вы хочаце дадаць дадатковыя NTP-серверы, зноў націсніце «+Дадаць NTP-хост» і паўтарыце гэты падкрок.
g) Укажыце проксі-сервер, а затым націсніце «Праверыць яго».

Разгортванне ў Linux KVM 9

Разгортванне панэлі кіравання Nexus у Linux KVM

Разгортванне ў Linux KVM

Крок 12

Для кластараў, якія не маюць прамога падключэння да воблака Cisco, мы рэкамендуем наладзіць проксі-сервер для ўстанаўлення падключэння. Гэта дазваляе знізіць рызыку ўздзеяння неадпаведнага абсталявання і праграмнага забеспячэння ў вашых сетках.
Вы таксама можаце выбраць адзін або некалькі IP-адрасоў, з якімі трэба ігнараваць проксі-сервер, націснуўшы кнопку «+Дадаць ігнараваць хост».
Проксі-сервер павінен мець наступнае URLуключана:
dcappcenter.cisco.com svc.intersight.com svc.ucs-connect.com svc-static1.intersight.com svc-static1.ucs-connect.com
Калі вы хочаце прапусціць наладу проксі-сервера, націсніце «Прапусціць проксі-сервер».
h) (Неабавязкова) Калі ваш проксі-сервер патрабуе аўтэнтыфікацыі, уключыце опцыю «Патрабуецца аўтэнтыфікацыя для проксі-сервера», увядзіце ўліковыя дадзеныя для ўваходу, а затым націсніце «Праверыць».
i) (Неабавязкова) Разгарніце катэгорыю «Дадатковыя налады» і пры неабходнасці змяніце налады.
У раздзеле "Пашыраныя налады" вы можаце наладзіць наступнае:
· Забяспечце карыстальніцкую сетку прыкладанняў і сетку паслуг.
Сетка накладання прыкладання вызначае адрасную прастору, якая выкарыстоўваецца службамі прыкладання, што працуюць у панэлі кіравання Nexus. Поле загадзя запоўнена значэннем па змаўчанні 172.17.0.1/16.
Службовая сетка — гэта ўнутраная сетка, якая выкарыстоўваецца панэллю кіравання Nexus і яе працэсамі. Поле папярэдне запоўнена значэннем па змаўчанні 100.80.0.0/16.
Калі вы раней адзначылі опцыю «Уключыць IPv6», вы таксама можаце вызначыць падсеткі IPv6 для сетак праграм і службаў.
Сеткі прыкладанняў і службаў апісаны ў раздзеле "Патрабаванні і рэкамендацыі" раней у гэтым дакуменце.
j) Націсніце «Далей», каб працягнуць.
На экране «Падрабязнасці вузла» абнавіце інфармацыю пра першы вузел.
Вы вызначылі сетку кіравання і IP-адрас для вузла, у які вы зараз увайшлі, падчас пачатковай канфігурацыі вузла на папярэдніх кроках, але вы таксама павінны падаць інфармацыю аб сетцы перадачы дадзеных для вузла, перш чым вы зможаце працягнуць дадаваць іншыя асноўныя вузлы і ствараць кластар.

Разгортванне ў Linux KVM 10

Разгортванне ў Linux KVM

Разгортванне панэлі кіравання Nexus у Linux KVM

Разгортванне ў Linux KVM 11

Разгортванне панэлі кіравання Nexus у Linux KVM

Разгортванне ў Linux KVM

а) Націсніце кнопку «Рэдагаваць» побач з першым вузлом.
Разгортванне ў Linux KVM 12

Разгортванне ў Linux KVM

Разгортванне панэлі кіравання Nexus у Linux KVM

Крок 13

Серыйны нумар вузла, інфармацыя аб сетцы кіравання і тып запаўняюцца аўтаматычна, але вам трэба будзе падаць іншую інфармацыю.
б) Укажыце назву вузла. Назва вузла будзе зададзена як назва яго хаста, таму яна павінна адпавядаць патрабаванням RFC-1123.
c) У выпадальным спісе «Тып» абярыце «Першасны». Першыя 3 вузлы кластара павінны быць усталяваны як «Першасны». Дадатковыя вузлы вы дадасце пазней, калі спатрэбіцца ўключыць сумеснае размяшчэнне паслуг і большы маштаб.
г) У вобласці «Сетка перадачы дадзеных» укажыце інфармацыю аб вузле ў сетцы перадачы дадзеных. Вы павінны падаць IP-адрас сеткі перадачы дадзеных, маску сеткі і шлюз. Пры жаданні вы таксама можаце падаць ідэнтыфікатар VLAN для сеткі. У большасці разгортванняў вы можаце пакінуць поле «Ідэнтыфікатар VLAN» пустым. Калі вы ўключылі функцыянальнасць IPv6 на папярэднім экране, вы таксама павінны падаць адрас IPv6, маску сеткі і шлюз. Заўвага: Калі вы хочаце падаць інфармацыю аб IPv6, вы павінны зрабіць гэта падчас працэсу загрузкі кластара. Каб змяніць канфігурацыю IP пазней, вам трэба будзе пераразгарнуць кластар. Усе вузлы ў кластары павінны быць настроены толькі на IPv4, толькі на IPv6 або на двайны стэк IPv4/IPv6.
e) (Неабавязкова) Калі ваш кластар разгорнуты ў рэжыме L3 HA, уключыце BGP для сеткі перадачы дадзеных. Канфігурацыя BGP патрабуецца для функцыі пастаянных IP-адрасоў, якая выкарыстоўваецца некаторымі службамі, такімі як Insights і Fabric Controller. Гэтая функцыя больш падрабязна апісана ў раздзелах «Патрабаванні і рэкамендацыі» і «Пастаянныя IP-адрасы» кіраўніцтва карыстальніка Cisco Nexus Dashboard. Заўвага: Вы можаце ўключыць BGP у гэты час або ў графічным інтэрфейсе Nexus Dashboard пасля разгортвання кластара.
Калі вы вырашыце ўключыць BGP, вам таксама неабходна падаць наступную інфармацыю: · ASN (нумар аўтаномнай сістэмы BGP) гэтага вузла. Вы можаце наладзіць адзін і той жа ASN для ўсіх вузлоў або розны ASN для кожнага вузла.
· Для чыстага IPv6, ідэнтыфікатар маршрутызатара гэтага вузла. Ідэнтыфікатар маршрутызатара павінен быць адрасам IPv4, напрыкладampтолькі 1.1.1.1
· Звесткі пра вузел BGP, якія ўключаюць адрас IPv4 або IPv6 вузла і яго ASN.
f) Націсніце «Захаваць», каб захаваць змены. На экране «Падрабязнасці вузла» націсніце «Дадаць вузел», каб дадаць другі вузел у кластар. Калі вы разгортваеце кластар з адным вузлом, прапусціце гэты крок.

Разгортванне ў Linux KVM 13

Разгортванне панэлі кіравання Nexus у Linux KVM

Разгортванне ў Linux KVM

а) У вобласці «Падрабязнасці разгортвання» ўкажыце IP-адрас кіравання і пароль для другога вузла.
Разгортванне ў Linux KVM 14

Разгортванне ў Linux KVM

Разгортванне панэлі кіравання Nexus у Linux KVM

Крок 14

Вы вызначылі інфармацыю аб сетцы кіравання і пароль падчас пачатковых этапаў канфігурацыі вузла.
b) Націсніце «Праверыць», каб праверыць падключэнне да вузла. Серыйны нумар вузла і інфармацыя аб сетцы кіравання будуць аўтаматычна запоўнены пасля праверкі падключэння.
c) Укажыце назву вузла. d) У выпадальным спісе «Тып» выберыце «Асноўны».
Першыя 3 вузлы кластара павінны быць усталяваны як асноўныя. Дадатковыя вузлы вы дадасце пазней, калі спатрэбіцца ўключыць сумеснае размяшчэнне паслуг і больш маштабныя.
e) У вобласці «Сетка перадачы дадзеных» укажыце інфармацыю аб вузле сеткі перадачы дадзеных. Вы павінны падаць IP-адрас сеткі перадачы дадзеных, маску сеткі і шлюз. Пры жаданні вы таксама можаце падаць ідэнтыфікатар VLAN для сеткі. У большасці разгортванняў вы можаце пакінуць поле «Ідэнтыфікатар VLAN» пустым. Калі вы ўключылі функцыянальнасць IPv6 на папярэднім экране, вы таксама павінны падаць адрас IPv6, маску сеткі і шлюз.
Заўвага. Калі вы хочаце падаць інфармацыю пра IPv6, вы павінны зрабіць гэта падчас працэсу загрузкі кластара. Каб змяніць канфігурацыю IP пазней, вам трэба будзе пераразгарнуць кластар. Усе вузлы ў кластары павінны быць настроены толькі на IPv4, толькі на IPv6 або на двайны стэк IPv4/IPv6.
f) (Неабавязкова) Калі ваш кластар разгорнуты ў рэжыме L3 HA, уключыце BGP для сеткі перадачы дадзеных. Канфігурацыя BGP патрабуецца для функцыі пастаянных IP-адрасоў, якая выкарыстоўваецца некаторымі службамі, такімі як Insights і Fabric Controller. Гэтая функцыя больш падрабязна апісана ў раздзелах «Патрабаванні і рэкамендацыі» і «Пастаянныя IP-адрасы» кіраўніцтва карыстальніка панэлі кіравання Cisco Nexus.
Заўвага. Вы можаце ўключыць BGP зараз або ў графічным інтэрфейсе Nexus Dashboard пасля разгортвання кластара.
Калі вы вырашыце ўключыць BGP, вам таксама неабходна падаць наступную інфармацыю: · ASN (нумар аўтаномнай сістэмы BGP) гэтага вузла. Вы можаце наладзіць адзін і той жа ASN для ўсіх вузлоў або розны ASN для кожнага вузла.
· Для чыстага IPv6, ідэнтыфікатар маршрутызатара гэтага вузла. Ідэнтыфікатар маршрутызатара павінен быць адрасам IPv4, напрыкладampтолькі 1.1.1.1
· Звесткі пра вузел BGP, якія ўключаюць адрас IPv4 або IPv6 вузла і яго ASN.
g) Націсніце «Захаваць», каб захаваць змены. h) Паўтарыце гэты крок для апошняга (трэцяга) асноўнага вузла кластара. На старонцы «Падрабязнасці вузла» праверце прадстаўленую інфармацыю і націсніце «Далей», каб працягнуць.

Разгортванне ў Linux KVM 15

Разгортванне панэлі кіравання Nexus у Linux KVM

Разгортванне ў Linux KVM

Крок 15
Крок 16 Крок 17

Выберыце рэжым разгортвання для кластара. а) Выберыце службы, якія вы хочаце ўключыць.
Да версіі 3.1(1) пасля завяршэння першапачатковага разгортвання кластара неабходна было спампоўваць і ўсталёўваць асобныя службы. Цяпер вы можаце ўключыць службы падчас першапачатковай усталёўкі.
Заўвага. У залежнасці ад колькасці вузлоў у кластары некаторыя службы або сцэнарыі сумеснага хостынгу могуць не падтрымлівацца. Калі вы не можаце выбраць патрэбную колькасць службаў, націсніце «Назад» і пераканайцеся, што на папярэднім кроку вы падалі дастатковую колькасць другасных вузлоў.
b) Націсніце «Дадаць пастаянныя IP-адрасы/пулы службаў», каб увесці адзін або некалькі пастаянных IP-адрасоў, неабходных службам Insights або Fabric Controller.
Больш падрабязную інфармацыю пра пастаянныя IP-адрасы глядзіце ў раздзеле "Патрабаванні і рэкамендацыі".
в) Націсніце «Далей», каб працягнуць.
На экране «Зводка» зноўview і праверце інфармацыю аб канфігурацыі, а затым націсніце «Захаваць», каб стварыць кластар.
Падчас загрузкі вузла і запуску кластара ў карыстальніцкім інтэрфейсе будзе адлюстроўвацца агульны прагрэс, а таксама прагрэс кожнага вузла асобна. Калі вы не бачыце прагрэсу загрузкі, абнавіце старонку ў браўзеры ўручную, каб абнавіць статус.
Фарміраванне кластара і запуск усіх службаў можа заняць да 30 хвілін. Пасля завяршэння налады кластара старонка перазагрузіцца ў графічны інтэрфейс Nexus Dashboard.
Пераканайцеся, што кластар спраўны.
Фарміраванне кластара і запуск усіх службаў можа заняць да 30 хвілін.

Разгортванне ў Linux KVM 16

Разгортванне ў Linux KVM

Разгортванне панэлі кіравання Nexus у Linux KVM

Пасля таго, як кластар стане даступным, вы зможаце атрымаць да яго доступ, перайшоўшы па любым IP-адрасе кіравання вашых вузлоў. Пароль па змаўчанні для карыстальніка адміністратара такі ж, як і пароль rescue-user, які вы выбралі для першага вузла. На працягу гэтага часу ўверсе інтэрфейсу будзе адлюстроўвацца банер з паведамленнем «Выконваецца ўстаноўка службы, задачы канфігурацыі панэлі кіравання Nexus у цяперашні час адключаны»:

Пасля таго, як увесь кластар разгорнуты і ўсе службы запушчаны, вы можаце праверыць Overview старонка, каб пераканацца ў спраўнасці кластара:

Акрамя таго, вы можаце ўвайсці ў любы вузел праз SSH як rescue-user, выкарыстоўваючы пароль, які вы ўказалі падчас разгортвання вузла, і з дапамогай каманды acs health для праверкі стану::
· Падчас канвергенцыі кластара вы можаце ўбачыць наступныя вынікі:
$ acs здароўе
Усталёўка k8s ідзе
$ acs здароўе
Паслугі k8s не ў патрэбным стане – […] $ acs health
k8s: Кластар Etcd не гатовы · Пасля запуску кластара будзе адлюстраваны наступны вынік:
Разгортванне ў Linux KVM 17

Разгортванне панэлі кіравання Nexus у Linux KVM

Разгортванне ў Linux KVM

Крок 18

$ acs health Усе кампаненты спраўныя
Заўвага. У некаторых сітуацыях вы можаце зноў уключыць і выключыць вузел (выключыць яго, а потым зноў уключыць) і выявіць, што ён затрымаўся ў гэтымtage: разгортванне базавых сістэмных службаў Гэта звязана з праблемай з etcd на вузле пасля перазагрузкі кластара pND (Physical Nexus Dashboard). Каб вырашыць праблему, увядзіце каманду acs reboot clean на пашкоджаным вузле.
Пасля разгортвання панэлі кіравання і службаў Nexus вы можаце наладзіць кожную службу, як апісана ў артыкулах пра яе канфігурацыю і працу.
· Інфармацыю пра Fabric Controller глядзіце ў тэхнічным дакуменце па канфігурацыі персанажаў NDFC і бібліятэцы дакументацыі. · Інфармацыю пра Orchestrator глядзіце на старонцы дакументацыі. · Інфармацыю пра аналітыку глядзіце ў бібліятэцы дакументацыі.

Разгортванне ў Linux KVM 18

Дакументы / Рэсурсы

Панэль кіравання CISCO Linux KVM Nexus [pdfІнструкцыі
Панэль кіравання Linux KVM Nexus, панэль кіравання KVM Nexus, панэль кіравання Nexus

Спасылкі

Пакінуць каментар

Ваш электронны адрас не будзе апублікаваны. Абавязковыя для запаўнення палі пазначаны *