Інструкції до панелі керування CISCO Linux KVM Nexus

Панель керування Linux KVM Nexus

Технічні характеристики:

  • libvirt version: 4.5.0-23.el7_7.1.x86_64
  • Версія панелі керування Nexus: 8.0.0

Інструкція з використання продукту:

Крок 1: Завантажте образ панелі інструментів Cisco Nexus

  1. Перейдіть до
    Сторінка завантаження програмного забезпечення
    .
  2. Натисніть на програмне забезпечення панелі інструментів Nexus.
  3. Виберіть потрібну версію панелі керування Nexus ліворуч
    бічна панель.
  4. Завантажте образ панелі інструментів Cisco Nexus для Linux KVM
    (nd-dk9..qcow2).
  5. Скопіюйте образ на сервер Linux KVM:
    # scp nd-dk9..qcow2 root@адреса_сервера:/home/nd-base

Крок 2: Створення необхідних образів дисків для вузлів

  1. Увійдіть до свого KVM-хоста як root.
  2. Створіть каталог для знімка вузла.
  3. Створіть знімок базового образу qcow2:
    # qemu-img create -f qcow2 -b /home/nd-base/nd-dk9..qcow2 /home/nd-node1/nd-node1-disk1.qcow2

    Примітка: Для RHEL 8.6 використовуйте додатковий параметр, як зазначено в
    посібник.

  4. Створіть додатковий образ диска для кожного вузла:
    # qemu-img create -f qcow2 /home/nd-node1/nd-node1-disk2.qcow2 500G
  5. Повторіть вищезазначений крок для інших вузлів.

Крок 3: Створення віртуальної машини для першого вузла

  1. Відкрийте консоль KVM та натисніть «Нова віртуальна машина».

FAQ:

З: Які вимоги до розгортання панелі інструментів Nexus у
KVM для Linux?

A: Для розгортання потрібна версія libvirt
4.5.0-23.el7_7.1.x86_64 та панель інструментів Nexus версії 8.0.0.

З: Як я можу перевірити затримку вводу/виводу для розгортання?

A: Щоб перевірити затримку вводу/виводу, створіть тестовий каталог, запустіть
зазначену команду за допомогою fio та підтвердіть, що затримка нижча за
20ms.

З: Як скопіювати образ панелі інструментів Cisco Nexus у Linux
KVM-сервер?

A: Ви можете використовувати scp для копіювання образу на сервер. Див.
Крок 1 в інструкціях для отримання детальних кроків.

“`

Розгортання в Linux KVM
· Необхідні умови та рекомендації, на сторінці 1 · Розгортання панелі інструментів Nexus у Linux KVM, на сторінці 2
Передумови та вказівки
Перш ніж розгортати кластер Nexus Dashboard у Linux KVM, необхідно: · Переконатися, що форм-фактор KVM підтримує ваші вимоги до масштабування та послуг. Підтримка масштабування та послуг, а також спільний хостинг залежать від форм-фактора кластера. Ви можете скористатися інструментом планування ємності Nexus Dashboard, щоб перевірити, чи відповідає віртуальний форм-фактор вашим вимогам до розгортання. · Review та виконайте загальні попередні вимоги, описані в розділі Необхідні вимоги: Панель керування Nexus. · Review та виконайте всі додаткові передумови, описані в примітках до випуску для служб, які ви плануєте розгорнути. · Переконайтеся, що сімейство процесорів, що використовуються для віртуальних машин Nexus Dashboard, підтримує набір інструкцій AVX. · Переконайтеся, що у вас достатньо системних ресурсів:
Розгортання в Linux KVM 1

Розгортання панелі інструментів Nexus у Linux KVM

Розгортання в Linux KVM

Таблиця 1: Вимоги до розгортання
Вимоги · Розгортання KVM підтримуються лише для служб Nexus Dashboard Fabric Controller. · Розгортання необхідно виконувати в CentOS 7.9 або Red Hat Enterprise Linux 8.6 · У вас повинні бути підтримувані версії ядра та KVM: · Для CentOS 7.9, ядро версії 3.10.0-957.el7.x86_64 та версія KVM
libvirt-4.5.0-23.el7_7.1.x86_64
· Для RHEL 8.6, версії ядра 4.18.0-372.9.1.el8.x86_64 та версії KVM libvert
8.0.0
· 16 віртуальних процесорів · 64 ГБ оперативної пам'яті · 550 ГБ диска
Кожен вузол потребує окремого розділу диска · Диск повинен мати затримку вводу/виводу 20 мс або менше.
Щоб перевірити затримку вводу/виводу: 1. Створіть тестовий каталог.
наприкладampле, тестові-дані. 2. Виконайте таку команду:
# fio –rw=запис –ioengine=синхронізація –fdatasync=1 –directory=тестові-дані –size=22m –bs=2300 –name=мійтест
3. Після виконання команди підтвердьте, що 99.00th=[ ] у файлі fsync/fdatasync/sync_fileРозділ _range менше 20 мс.
· Ми рекомендуємо розгортати кожен вузол Nexus Dashboard в окремому гіпервізорі KVM.

Розгортання панелі інструментів Nexus у Linux KVM
У цьому розділі описано, як розгорнути кластер Cisco Nexus Dashboard у Linux KVM.
Перш ніж почати · Переконайтеся, що ви відповідаєте вимогам і інструкціям, описаним у розділі «Передумови та інструкції» на сторінці 1.

Розгортання в Linux KVM 2

Розгортання в Linux KVM

Розгортання панелі інструментів Nexus у Linux KVM

Процедура

Крок 1 Крок 2 Крок 3
Крок 4

Завантажте образ панелі інструментів Cisco Nexus. a) Перейдіть на сторінку завантаження програмного забезпечення.
https://software.cisco.com/download/home/286327743/type/286328258
b) Натисніть «Програмне забезпечення Nexus Dashboard». c) На лівій бічній панелі виберіть версію Nexus Dashboard, яку ви хочете завантажити. d) Завантажте образ Cisco Nexus Dashboard для Linux KVM (nd-dk9. .qcow2). Скопіюйте образ на сервери Linux KVM, де ви розміщуєте вузли. Ви можете використовувати scp для копіювання образу, наприкладampле:
# scp nd-dk9. .qcow2 root@ :/home/nd-base
Наведені нижче кроки передбачають, що ви скопіювали образ до каталогу /home/nd-base.
Створіть необхідні образи дисків для першого вузла. Ви створите знімок базового образу qcow2, який ви завантажили, та використаєте знімки як образи дисків для віртуальних машин вузлів. Вам також потрібно буде створити другий образ диска для кожного вузла. a) Увійдіть на свій хост KVM як користувач root. b) Створіть каталог для знімка вузла.
Наведені нижче кроки передбачають створення знімка в каталозі /home/nd-node1.
# mkdir -p /home/nd-node1/ # cd /home/nd-node1
c) Створіть знімок. У наступній команді замініть /home/nd-base/nd-dk9. .qcow2 із розташуванням базового образу, який ви створили на попередньому кроці.
# create -f qcow2 -b /home/nd-base/nd-dk9. .qcow2 /home/nd-node1/nd-node1-disk1.qcow2
Примітка. Якщо ви розгортаєте RHEL 8.6, вам може знадобитися надати додатковий параметр, щоб також визначити формат знімка призначення. У такому разі оновіть наведену вище команду до наступного: # qemu-img create -f qcow2 -b /home/nd-base/nd-dk9.2.1.1a.qcow2 /home/nd-node1/nd-node1-disk1.qcow2 -F qcow2
d) Створіть додатковий образ диска для вузла. Для кожного вузла потрібні два диски: знімок базового образу Nexus Dashboard qcow2 та другий диск на 500 ГБ.
# qemu-img create -f qcow2 /home/nd-node1/nd-node1-disk2.qcow2 500G
Повторіть попередній крок, щоб створити образи дисків для другого та третього вузлів. Перш ніж перейти до наступного кроку, вам слід мати наступне:
· Для першого вузла, каталогу /home/nd-node1/ з двома образами дисків:

Розгортання в Linux KVM 3

Розгортання панелі інструментів Nexus у Linux KVM

Розгортання в Linux KVM

Крок 5

· /home/nd-node1/nd-node1-disk1.qcow2, що є знімком базового образу qcow2, завантаженого на кроці 1.
· /home/nd-node1/nd-node1-disk2.qcow2 – це новий диск на 500 ГБ, який ви створили.
· Для другого вузла, каталог /home/nd-node2/ з двома образами дисків: · /home/nd-node2/nd-node2-disk1.qcow2, який є знімком базового образу qcow2, завантаженого на кроці 1.
· /home/nd-node2/nd-node2-disk2.qcow2 – це новий диск на 500 ГБ, який ви створили.
· Для третього вузла, каталог /home/nd-node3/ з двома образами дисків: · /home/nd-node1/nd-node3-disk1.qcow2, який є знімком базового образу qcow2, завантаженого на кроці 1.
· /home/nd-node1/nd-node3-disk2.qcow2 – це новий диск на 500 ГБ, який ви створили.
Створіть віртуальну машину першого вузла. a) Відкрийте консоль KVM і натисніть «Нова віртуальна машина».
Ви можете відкрити консоль KVM з командного рядка за допомогою команди virt-manager. Якщо ваше середовище Linux KVM не має графічного інтерфейсу для робочого столу, виконайте натомість наступну команду та перейдіть до кроку 6.
virt-install –import –name –пам'ять 65536 –vcpus 16 –os-type generic –disk path=/шлях/до/диска1/nd-вузла1-d1.qcow2,format=qcow2,bus=virtio –disk path=/шлях/до/диска2/nd-вузла1-d2.qcow2,format=qcow2,bus=virtio –мережевий міст= ,model=virtio –мережевий міст= ,model=virtio –console pty,target_type=serial –noautoconsole –autostart
b) На екрані «Нова віртуальна машина» виберіть опцію «Імпортувати існуючий образ диска» та натисніть «Вперед». c) У полі «Надати існуючий шлях до сховища» натисніть «Огляд» та виберіть nd-node1-disk1.qcow2. file.
Ми рекомендуємо зберігати образ диска кожного вузла на окремому розділі диска.
d) Виберіть «Загальний» для типу ОС та версії, а потім натисніть «Вперед». e) Вкажіть 64 ГБ пам’яті та 16 процесорів, а потім натисніть «Вперед». f) Введіть назву віртуальної машини, наприкладample nd-node1 та перевірте конфігурацію Customize перед
параметр встановлення. Потім натисніть кнопку «Готово». Примітка. Щоб мати змогу налаштувати диск і мережеву карту, необхідні для вузла, потрібно встановити прапорець «Налаштувати конфігурацію перед встановленням».
Відкриється вікно з деталями віртуальної машини.
У вікні відомостей про віртуальну машину змініть модель пристрою мережевої карти: a) Виберіть мережеву карту b) Для параметра «Модель пристрою» виберіть e1000. c) Для параметра «Мережеве джерело» виберіть пристрій мосту та вкажіть назву мосту «mgmt».
Примітка

Розгортання в Linux KVM 4

Розгортання в Linux KVM

Розгортання панелі інструментів Nexus у Linux KVM

Крок 6 Крок 7

Створення мостових пристроїв виходить за рамки цього посібника та залежить від дистрибутива та версії операційної системи. Для отримання додаткової інформації зверніться до документації операційної системи, наприклад, до статті Red Hat «Налаштування мережевого моста».
У вікні відомостей про віртуальну машину додайте другий мережевий адаптер:
a) Натисніть «Додати обладнання». b) На екрані «Додати нове віртуальне обладнання» виберіть «Мережа». c) У полі «Джерело мережі» виберіть пристрій мосту та вкажіть назву створеного мосту «даних». d) Залиште значення MAC-адреси за замовчуванням. e) У полі «Модель пристрою» виберіть e1000.
У вікні з деталями віртуальної машини додайте другий образ диска:
a) Натисніть «Додати обладнання». b) На екрані «Додати нове віртуальне обладнання» виберіть «Сховище». c) Для драйвера шини диска виберіть IDE. d) Виберіть «Вибрати або створити власне сховище», натисніть «Керувати» та виберіть nd-node1-disk2.qcow2. file ви створили. e) Натисніть кнопку «Готово», щоб додати другий диск.
Примітка. Переконайтеся, що в інтерфейсі користувача Virtual Machine Manager увімкнено параметр «Копіювати конфігурацію процесора хоста».
Нарешті, натисніть кнопку «Почати встановлення», щоб завершити створення віртуальної машини вузла.
Повторіть попередні кроки, щоб розгорнути другий і третій вузли, а потім запустіть усі віртуальні машини.
Примітка. Якщо ви розгортаєте кластер з одним вузлом, цей крок можна пропустити.
Відкрийте консоль одного з вузлів та налаштуйте основну інформацію про вузол. Якщо ваше середовище Linux KVM не має графічного інтерфейсу робочого столу, запустіть консоль virsh. команда для доступу до консолі вузла. a) Натисніть будь-яку клавішу, щоб розпочати початкове налаштування.
Вам буде запропоновано запустити утиліту початкового налаштування:
[ ОК ] Розпочато atomix-boot-setup. Запуск початкового завдання cloud-init (попереднє підключення до мережі)… Запуск logrotate… Запуск logwatch… Запуск keyhole…
[ OK ] Розпочато замикання замкової щілини. [ OK ] Розпочато обертання журналу. [ OK ] Розпочато спостереження за журналом.
Натисніть будь-яку клавішу, щоб запустити налаштування першого завантаження на цій консолі…
б) Введіть та підтвердьте пароль адміністратора
Цей пароль буде використано для входу користувача rescue-user через SSH, а також для початкового пароля графічного інтерфейсу.
Примітка. Ви повинні вказати однаковий пароль для всіх вузлів, інакше створення кластера не вдасться.
Пароль адміністратора: Введіть пароль адміністратора ще раз:

Розгортання в Linux KVM 5

Розгортання панелі інструментів Nexus у Linux KVM

Розгортання в Linux KVM

Крок 8 Крок 9 Крок 10

c) Введіть інформацію про мережу керування.
Мережа керування: IP-адреса/маска: 192.168.9.172/24 Шлюз: 192.168.9.1
d) Тільки для першого вузла позначте його як «Лідера кластера».
Ви увійдете до вузла лідера кластера, щоб завершити налаштування та завершити створення кластера.
Це лідер кластера?: так
e) Review та підтвердіть введену інформацію.
Вас запитають, чи бажаєте ви змінити введену інформацію. Якщо всі поля правильні, виберіть «n», щоб продовжити. Якщо ви хочете змінити будь-яку введену інформацію, введіть «y», щоб перезапустити базовий сценарій конфігурації.
Будь ласка, повторноview мережа керування конфігурацією:
Шлюз: 192.168.9.1 IP-адреса/маска: 192.168.9.172/24 Лідер кластера: так
Повторно ввести конфігурацію? (так/ні): n
Повторіть попередній крок, щоб налаштувати початкову інформацію для другого та третього вузлів.
Вам не потрібно чекати завершення налаштування першого вузла, ви можете розпочати налаштування двох інших вузлів одночасно.
Примітка. Ви повинні вказати однаковий пароль для всіх вузлів, інакше створення кластера не вдасться.
Кроки для розгортання другого та третього вузлів ідентичні, за винятком того, що ви повинні вказати, що вони не є лідером кластера.
Зачекайте завершення початкового процесу завантаження на всіх вузлах.
Після надання та підтвердження інформації про мережу керування, початкове налаштування на першому вузлі (лідер кластера) налаштовує мережу та відкриває інтерфейс користувача, який ви використовуватимете для додавання двох інших вузлів та завершення розгортання кластера.
Будь ласка, зачекайте завантаження системи: [###########################] Система запущена на 100%, будь ласка, зачекайте, поки інтерфейс користувача буде онлайн.
Системний інтерфейс онлайн, будь ласка, увійдіть за адресою https://192.168.9.172, щоб продовжити.
Відкрийте браузер і перейдіть за посиланням https:// щоб відкрити графічний інтерфейс.
Решта робочого процесу налаштування відбувається з графічного інтерфейсу одного з вузлів. Ви можете вибрати будь-який з розгорнутих вами вузлів, щоб розпочати процес завантаження, і вам не потрібно входити в систему або налаштовувати два інші вузли безпосередньо.
Введіть пароль, який ви вказали на попередньому кроці, та натисніть «Увійти»

Розгортання в Linux KVM 6

Розгортання в Linux KVM

Розгортання панелі інструментів Nexus у Linux KVM

Крок 11

Надайте відомості про кластер. На екрані «Відомості про кластер» майстра створення кластера надайте таку інформацію:

Розгортання в Linux KVM 7

Розгортання панелі інструментів Nexus у Linux KVM

Розгортання в Linux KVM

a) Вкажіть назву кластера для цього кластера Nexus Dashboard. Назва кластера має відповідати вимогам RFC-1123.
b) (Необов’язково) Якщо ви хочете ввімкнути функціональність IPv6 для кластера, поставте прапорець «Увімкнути IPv6». c) Натисніть «+Додати постачальника DNS», щоб додати один або кілька DNS-серверів.
Після введення інформації натисніть значок галочки, щоб зберегти її. d) (Необов’язково) Натисніть +Додати пошуковий домен DNS, щоб додати пошуковий домен.
Розгортання в Linux KVM 8

Розгортання в Linux KVM

Розгортання панелі інструментів Nexus у Linux KVM

Після введення інформації натисніть значок галочки, щоб зберегти її.
e) (Необов’язково) Якщо ви хочете ввімкнути автентифікацію NTP-сервера, установіть прапорець «Автентифікація NTP» і натисніть «Додати ключ NTP». У додаткових полях надайте таку інформацію: · Ключ NTP – криптографічний ключ, який використовується для автентифікації NTP-трафіку між панеллю керування Nexus та сервером(ами) NTP. Ви визначите сервери NTP на наступному кроці, і кілька серверів NTP можуть використовувати один і той самий ключ NTP.
· Ідентифікатор ключа: кожному ключу NTP має бути призначено унікальний ідентифікатор ключа, який використовується для ідентифікації відповідного ключа, який слід використовувати під час перевірки NTP-пакета.
· Тип автентифікації: цей випуск підтримує типи автентифікації MD5, SHA та AES128CMAC.
· Виберіть, чи є цей ключ довіреним. Недовірені ключі не можна використовувати для NTP-автентифікації.
Примітка. Після введення інформації натисніть значок позначки, щоб зберегти її. Повний список вимог і рекомендацій щодо автентифікації NTP див. у розділі «Передумови та рекомендації».
f) Натисніть «+Додати ім’я хоста NTP/IP-адресу», щоб додати один або кілька серверів NTP. У додаткових полях надайте таку інформацію: · Хост NTP: потрібно вказати IP-адресу; повне доменне ім’я (FQDN) не підтримується.
· Ідентифікатор ключа: якщо ви хочете ввімкнути автентифікацію NTP для цього сервера, вкажіть ідентифікатор ключа NTP, який ви визначили на попередньому кроці. Якщо автентифікацію NTP вимкнено, це поле буде неактивним.
· Виберіть, чи є цей NTP-сервер пріоритетним.
Після введення інформації натисніть значок прапорця, щоб зберегти її. Примітка. Якщо вузол, у який ви ввійшли, налаштовано лише на адресу IPv4, але ви встановили прапорець «Увімкнути IPv6» на попередньому кроці та надали адресу IPv6 для NTP-сервера, ви отримаєте таку помилку перевірки:

Це пояснюється тим, що вузол ще не має IPv6-адреси (ви надасте її на наступному кроці) і не може підключитися до IPv6-адреси NTP-сервера. У цьому випадку просто завершіть надання іншої необхідної інформації, як описано в наступних кроках, і натисніть «Далі», щоб перейти до наступного екрана, де ви надасте IPv6-адреси для вузлів.
Якщо ви хочете надати додаткові NTP-сервери, знову натисніть +Додати хост NTP і повторіть цей підкрок.
g) Укажіть проксі-сервер, а потім натисніть «Перевірити його».

Розгортання в Linux KVM 9

Розгортання панелі інструментів Nexus у Linux KVM

Розгортання в Linux KVM

Крок 12

Для кластерів, які не мають прямого підключення до хмари Cisco, ми рекомендуємо налаштувати проксі-сервер для встановлення з’єднання. Це дозволяє зменшити ризик, пов’язаний з несумісним обладнанням та програмним забезпеченням у ваших мережевих структурах.
Ви також можете вказати одну або кілька IP-адрес, з якими слід ігнорувати проксі-сервер, натиснувши +Додати Ігнорувати хост.
Проксі-сервер повинен мати наступне URLувімкнено:
dcappcenter.cisco.com svc.intersight.com svc.ucs-connect.com svc-static1.intersight.com svc-static1.ucs-connect.com
Якщо потрібно пропустити налаштування проксі-сервера, натисніть «Пропустити проксі-сервер».
h) (Необов’язково) Якщо ваш проксі-сервер вимагає автентифікації, увімкніть опцію «Потрібна автентифікація для проксі-сервера», надайте облікові дані для входу, а потім натисніть кнопку «Перевірити».
i) (Необов’язково) Розгорніть категорію «Додаткові налаштування» та змініть налаштування за потреби.
У розділі розширених налаштувань ви можете налаштувати наступне:
· Надання власної мережі додатків та мережі послуг.
Мережа оверлею застосунку визначає адресний простір, який використовується службами застосунку, що працюють на панелі інструментів Nexus. Поле попередньо заповнено значенням за замовчуванням 172.17.0.1/16.
Сервісна мережа – це внутрішня мережа, яка використовується панеллю керування Nexus та її процесами. Поле попередньо заповнено значенням за замовчуванням 100.80.0.0/16.
Якщо ви раніше встановили прапорець «Увімкнути IPv6», ви також можете визначити підмережі IPv6 для мереж програм і служб.
Мережі додатків та сервісів описані в розділі «Передумови та рекомендації» раніше в цьому документі.
j) Натисніть кнопку «Далі», щоб продовжити.
На екрані «Відомості про вузол» оновіть інформацію про перший вузол.
Ви визначили мережу керування та IP-адресу для вузла, в який ви зараз увійшли, під час початкового налаштування вузла на попередніх кроках, але ви також повинні надати інформацію про мережу передачі даних для вузла, перш ніж ви зможете продовжити додавання інших основних вузлів та створення кластера.

Розгортання в Linux KVM 10

Розгортання в Linux KVM

Розгортання панелі інструментів Nexus у Linux KVM

Розгортання в Linux KVM 11

Розгортання панелі інструментів Nexus у Linux KVM

Розгортання в Linux KVM

a) Натисніть кнопку «Редагувати» поруч із першим вузлом.
Розгортання в Linux KVM 12

Розгортання в Linux KVM

Розгортання панелі інструментів Nexus у Linux KVM

Крок 13

Серійний номер вузла, інформація про мережу керування та тип заповнюються автоматично, але вам потрібно буде надати іншу інформацію.
b) Вкажіть ім'я вузла. Ім'я вузла буде встановлено як ім'я його хоста, тому воно має відповідати вимогам RFC-1123.
c) У розкривному списку «Тип» виберіть «Основний». Перші 3 вузли кластера мають бути налаштовані як «Основні». Ви додасте вторинні вузли на наступному кроці, якщо це буде потрібно для ввімкнення спільного хостингу сервісів та вищого масштабу.
d) В області «Мережа передачі даних» надайте інформацію про мережу передачі даних вузла. Ви повинні вказати IP-адресу мережі передачі даних, маску мережі та шлюз. За потреби ви також можете вказати ідентифікатор VLAN для мережі. Для більшості розгортань поле «Ідентифікатор VLAN» можна залишити порожнім. Якщо ви ввімкнули функціональність IPv6 на попередньому екрані, ви також повинні вказати адресу IPv6, маску мережі та шлюз. Примітка. Якщо ви хочете надати інформацію про IPv6, ви повинні зробити це під час процесу завантаження кластера. Щоб змінити конфігурацію IP пізніше, вам потрібно буде повторно розгорнути кластер. Усі вузли в кластері повинні бути налаштовані лише на IPv4, лише на IPv6 або на подвійний стек IPv4/IPv6.
e) (Необов’язково) Якщо ваш кластер розгорнуто в режимі високої доступності L3, увімкніть BGP для мережі передачі даних. Налаштування BGP необхідне для функції постійних IP-адрес, яка використовується деякими службами, такими як Insights та Fabric Controller. Ця функція детальніше описана в розділах «Попередні вимоги та рекомендації» та «Постійні IP-адреси» посібника користувача Cisco Nexus Dashboard. Примітка. Ви можете ввімкнути BGP на цьому етапі або в графічному інтерфейсі Nexus Dashboard після розгортання кластера.
Якщо ви вирішите ввімкнути BGP, вам також потрібно надати таку інформацію: · ASN (номер автономної системи BGP) цього вузла. Ви можете налаштувати однаковий ASN для всіх вузлів або окремий ASN для кожного вузла.
· Для чистого IPv6, ідентифікатор маршрутизатора цього вузла. Ідентифікатор маршрутизатора має бути адресою IPv4, наприкладample 1.1.1.1
· Відомості про вузол BGP, що включають адресу IPv4 або IPv6 вузла та його ASN.
f) Натисніть кнопку «Зберегти», щоб зберегти зміни. На екрані «Відомості про вузол» натисніть кнопку «Додати вузол», щоб додати другий вузол до кластера. Якщо ви розгортаєте кластер з одним вузлом, пропустіть цей крок.

Розгортання в Linux KVM 13

Розгортання панелі інструментів Nexus у Linux KVM

Розгортання в Linux KVM

a) В області «Відомості про розгортання» вкажіть IP-адресу керування та пароль для другого вузла.
Розгортання в Linux KVM 14

Розгортання в Linux KVM

Розгортання панелі інструментів Nexus у Linux KVM

Крок 14

Ви визначили інформацію про мережу керування та пароль під час початкових кроків налаштування вузла.
b) Натисніть кнопку «Перевірити», щоб перевірити підключення до вузла. Серійний номер вузла та інформація про мережу керування автоматично заповнюються після підтвердження підключення.
c) Введіть назву вузла. d) У розкривному списку «Тип» виберіть «Основний».
Перші 3 вузли кластера мають бути налаштовані як первинні. Ви додасте вторинні вузли пізніше, якщо це буде потрібно для спільного розміщення послуг та вищого масштабу.
e) В області «Мережа передачі даних» надайте інформацію про мережу передачі даних вузла. Ви повинні вказати IP-адресу мережі передачі даних, маску мережі та шлюз. За потреби ви також можете вказати ідентифікатор VLAN для мережі. Для більшості розгортань поле «Ідентифікатор VLAN» можна залишити порожнім. Якщо ви ввімкнули функціональність IPv6 на попередньому екрані, ви також повинні вказати адресу IPv6, маску мережі та шлюз.
Примітка. Якщо ви хочете надати інформацію про IPv6, це потрібно зробити під час процесу завантаження кластера. Щоб змінити конфігурацію IP пізніше, вам потрібно буде повторно розгорнути кластер. Усі вузли в кластері мають бути налаштовані лише на IPv4, лише на IPv6 або на подвійний стек IPv4/IPv6.
f) (Необов’язково) Якщо ваш кластер розгорнуто в режимі L3 HA, увімкніть BGP для мережі передачі даних. Налаштування BGP необхідне для функції постійних IP-адрес, яка використовується деякими службами, такими як Insights та Fabric Controller. Ця функція детальніше описана в розділах «Передумови та рекомендації» та «Постійні IP-адреси» посібника користувача Cisco Nexus Dashboard.
Примітка. Ви можете ввімкнути BGP зараз або в графічному інтерфейсі Nexus Dashboard після розгортання кластера.
Якщо ви вирішите ввімкнути BGP, вам також потрібно надати таку інформацію: · ASN (номер автономної системи BGP) цього вузла. Ви можете налаштувати однаковий ASN для всіх вузлів або окремий ASN для кожного вузла.
· Для чистого IPv6, ідентифікатор маршрутизатора цього вузла. Ідентифікатор маршрутизатора має бути адресою IPv4, наприкладample 1.1.1.1
· Відомості про вузол BGP, що включають адресу IPv4 або IPv6 вузла та його ASN.
g) Натисніть кнопку «Зберегти», щоб зберегти зміни. h) Повторіть цей крок для останнього (третього) основного вузла кластера. На сторінці «Відомості про вузол» перевірте надану інформацію та натисніть кнопку «Далі», щоб продовжити.

Розгортання в Linux KVM 15

Розгортання панелі інструментів Nexus у Linux KVM

Розгортання в Linux KVM

Крок 15
Крок 16 Крок 17

Виберіть режим розгортання для кластера. a) Виберіть служби, які потрібно ввімкнути.
До випуску 3.1(1) потрібно було завантажувати та встановлювати окремі служби після завершення початкового розгортання кластера. Тепер ви можете ввімкнути ці служби під час початкового встановлення.
Примітка. Залежно від кількості вузлів у кластері, деякі служби або сценарії спільного хостингу можуть не підтримуватися. Якщо ви не можете вибрати потрібну кількість служб, натисніть кнопку «Назад» і переконайтеся, що ви надали достатньо вторинних вузлів на попередньому кроці.
b) Натисніть «Додати постійні IP-адреси/пули служб», щоб надати одну або кілька постійних IP-адрес, необхідних для служб Insights або Fabric Controller.
Щоб отримати додаткові відомості про постійні IP-адреси, див. розділ «Передумови та рекомендації».
c) Натисніть кнопку «Далі», щоб продовжити.
На екрані «Підсумок» повторноview і перевірте інформацію про конфігурацію, а потім натисніть кнопку «Зберегти», щоб створити кластер.
Під час завантаження вузла та запуску кластера в інтерфейсі користувача відображатиметься загальний прогрес, а також прогрес кожного окремого вузла. Якщо ви не бачите прогресу завантаження, оновіть сторінку у браузері вручну, щоб оновити статус.
Формування кластера та запуск усіх служб може зайняти до 30 хвилин. Після завершення налаштування кластера сторінка перезавантажиться до графічного інтерфейсу Nexus Dashboard.
Перевірте, чи кластер справний.
Формування кластера та запуск усіх служб може зайняти до 30 хвилин.

Розгортання в Linux KVM 16

Розгортання в Linux KVM

Розгортання панелі інструментів Nexus у Linux KVM

Після того, як кластер стане доступним, ви зможете отримати до нього доступ, перейшовши за будь-якою IP-адресою керування вашого вузла. Пароль за замовчуванням для користувача-адміністратора такий самий, як і пароль rescue-user, який ви вибрали для першого вузла. Протягом цього часу вгорі інтерфейсу користувача відображатиметься банер із повідомленням «Виконується встановлення служби, завдання конфігурації панелі керування Nexus наразі вимкнено»:

Після розгортання кластера та запуску всіх служб можна перевірити Over.view сторінка, щоб переконатися, що кластер справний:

Або ж ви можете увійти до будь-якого вузла через SSH як rescue-user, використовуючи пароль, який ви надали під час розгортання вузла, та за допомогою команди acs health для перевірки стану::
· Під час конвергенції кластера ви можете побачити такі результати:
$ acs здоров'я
Встановлення k8s триває
$ acs здоров'я
Сервіси k8s не в бажаному стані – […] $ acs health
k8s: Кластер Etcd не готовий · Коли кластер запущено та працює, буде відображено наступний вивід:
Розгортання в Linux KVM 17

Розгортання панелі інструментів Nexus у Linux KVM

Розгортання в Linux KVM

Крок 18

$ acs health Усі компоненти справні
Примітка. У деяких ситуаціях ви можете вимкнути та увімкнути вузол (вимкнути, а потім знову ввімкнути його) і виявити, що він застряг у цьомуtage: розгортання базових системних служб. Це пов’язано з проблемою з etcd на вузлі після перезавантаження кластера pND (Physical Nexus Dashboard). Щоб вирішити проблему, введіть команду acs reboot clean на ураженому вузлі.
Після розгортання панелі інструментів та служб Nexus ви можете налаштувати кожну службу, як описано в статтях про її конфігурацію та роботу.
· Інформацію щодо Fabric Controller див. у інформаційному документі та бібліотеці документації щодо конфігурації персони NDFC. · Інформацію щодо Orchestrator див. на сторінці документації. · Інформацію див. у бібліотеці документації.

Розгортання в Linux KVM 18

Документи / Ресурси

Панель керування CISCO Linux KVM Nexus [pdfІнструкції
Панель керування Linux KVM Nexus, Панель керування KVM Nexus, Панель керування Nexus

Список літератури

Залиште коментар

Ваша електронна адреса не буде опублікована. Обов'язкові поля позначені *