Juniper NETWORKS Streaming API софтвер
Информации за производот
Спецификации
- Име на производ: Paragon Active Assurance
- Верзија: 4.1
- Датум на објавување: 2023-03-15
Вовед:
Овој водич дава инструкции за тоа како да се извлечат податоци од Paragon Active Assurance користејќи го стриминг API на производот. Клиентот за стриминг и API се вклучени во инсталацијата на Paragon Active Assurance, но потребна е одредена конфигурација пред да се користи API. Процесот на конфигурација е опфатен во делот „Конфигурирање на Streaming API“.
Конфигурирање на Streaming API:
Следниве чекори го прикажуваат процесот за конфигурирање на стриминг API:
Во текот наview
Кафка е платформа за стриминг настани дизајнирана за снимање и складирање податоци во реално време од различни извори. Овозможува управување со преносите на настани на дистрибуиран, скалабилен, толерантен на грешки и безбеден начин. Овој водич се фокусира на конфигурирање на Кафка да ја користи функцијата Streaming API во Paragon Active Assurance Control Center.
Терминологија
Streaming API им овозможува на надворешните клиенти да преземаат информации за метриката од Кафка. Метриките собрани од агентите за тестирање за време на тест или задача за следење се испраќаат до услугата Stream. По обработката, услугата Stream ги објавува овие метрики на Кафка заедно со дополнителни метаподатоци.
Streaming API ги користи темите на Кафка за организирање и складирање на метрика и метаподатоци. Темите за Кафка може да се креираат и управуваат според специфични барања.
Овозможување на Streaming API
За да го овозможите Streaming API, следете ги овие чекори:
- Извршете ги следните команди на серверот Контролен центар користејќи sudo:
KAFKA_METRICS_ENABLED = Вистинските sudo ncc услуги овозможуваат timescaledb метрика sudo ncc услугите започнуваат timescaledb метрика услугите sudo ncc се рестартираат
Потврда дека API-то за стриминг работи во контролниот центар:
За да потврдите дека добивате метрика за точните теми на Кафка:
- Инсталирајте ја алатката kafkacat со следните команди:
sudo apt-get ажурирање
sudo apt-get install kafkacat
- Заменете го „myaccount“ со краткото име на вашата сметка во
Контролен центар URL:
извезете METRICS_TOPIC=paa.public.accounts.myaccount.metrics
извезете METADATA_TOPIC=paa.public.accounts.myaccount.metadata
- Извршете ја следнава команда на view метрика:
kafkacat -b ${KAFKA_FQDN}:9092 -t ${METRICS_TOPIC} -C -e
Забелешка: Горенаведената команда ќе ја прикаже метриката. - На view метаподатоци, извршете ја следнава команда:
kafkacat -b ${KAFKA_FQDN}:9092 -t ${METADATA_TOPIC} -C -e
Забелешка: Горенаведената команда ќе прикаже метаподатоци, но нема да се ажурира толку често.
Клиент Прampлес
За клиентот ексampповеќе и повеќе информации, погледнете ја страницата 14 од упатството за употреба.
ЧПП (Често поставувани прашања)
- П: Што е Paragon Active Assurance?
О: Paragon Active Assurance е производ кој обезбедува можности за следење и тестирање. - П: Што е Streaming API?
О: Streaming API е карактеристика во Paragon Active Assurance која им овозможува на надворешните клиенти да преземаат информации за метриката од Кафка. - П: Како да го овозможам Streaming API?
О: За да го овозможите Streaming API, следете ги чекорите наведени во делот „Овозможување на Streaming API“ од упатството за корисникот. - П: Како можам да потврдам дека Streaming API работи?
О: Погледнете во делот „Потврда дека API-то за стриминг работи во контролниот центар“ за инструкции за тоа како да се потврди функционалноста на API-то за стриминг.
Вовед
Овој водич опишува како да се извлечат податоци од Paragon Active Assurance преку стриминг API на производот.
API, како и клиентот за стриминг се вклучени во инсталацијата на Paragon Active Assurance. Сепак, потребна е малку конфигурација пред да можете да го користите API. Ова е покриено во поглавјето „Конфигурирање на API за стриминг“ на страница 1.
Во текот наview
Ова поглавје опишува како да се конфигурира Streaming API за да се овозможи претплата на метрички пораки преку Кафка.
pr
Подолу ќе поминеме низ:
- Како да го овозможите Streaming API
- Како да го конфигурирате Кафка да слуша надворешни клиенти
- Како да го конфигурирате Кафка да користи ACL и да постави SSL шифрирање за наведените клиенти
Што е Кафка?
Кафка е платформа за стриминг настани што овозможува снимање во реално време на податоци испратени од различни извори на настани (сензори, бази на податоци, мобилни уреди) во форма на преноси на настани, како и трајно складирање на овие текови на настани за подоцнежно пребарување и манипулација.
Со Кафка е можно да се управува со преносот на настани од крај до крај на дистрибуиран, високо скалабилен, еластичен, толерантен на грешки и безбеден начин.
ЗАБЕЛЕШКА: Кафка може да се конфигурира на многу различни начини и е дизајниран за приспособливост и вишок системи. Овој документ се фокусира само на тоа како да го конфигурирате за да ја искористи функцијата Streaming API што се наоѓа во Контролниот центар за активна гаранција Paragon. За понапредни поставки се повикуваме на официјалната документација на Кафка: kafka.apache.org/26/documentation.html.
Терминологија
- Кафка: Платформа за стриминг на настани.
- Кафка тема: Збирка настани.
- Претплатник/потрошувач на Кафка: Компонента одговорна за пребарување на настани зачувани во тема на Кафка.
- Брокер на Кафка: Сервер за слој за складирање на кластерот Кафка.
- SSL/TLS: SSL е безбеден протокол развиен за безбедно испраќање информации преку Интернет. TLS е наследник на SSL, воведен во 1999 година.
- SASL: Рамка која обезбедува механизми за автентикација на корисникот, проверка на интегритетот на податоците и шифрирање.
- Претплатник за стриминг API: Компонента одговорна за пронаоѓање настани складирани во теми дефинирани во Paragon Active Assurance и наменети за надворешен пристап.
- Орган за сертификати: доверлив субјект кој издава и отповикува сертификати со јавен клуч.
- Корен сертификат за авторитет за сертификати: Сертификат за јавен клуч кој идентификува орган за сертификати.
Како работи Streaming API
Како што беше претходно споменато, Streaming API им овозможува на надворешните клиенти да преземаат информации за метрика од Кафка.
Сите метрики собрани од агентите за тестирање за време на тест или задача за следење се испраќаат до услугата Stream. По фазата на обработка, услугата Stream ги објавува тие метрики на Кафка заедно со дополнителни метаподатоци.
Теми за Кафка
Кафка го има концептот на теми на кои се објавуваат сите податоци. Во Paragon Active Assurance има многу такви теми за Кафка на располагање; сепак, само подмножество од нив се наменети за надворешен пристап.
Секоја сметка на Paragon Active Assurance во Контролниот центар има две посветени теми. Подолу, ACCOUNT е краткото име на сметката:
- paa.public.accounts.{ACCOUNT}.metrics
- Сите пораки за метрика за дадената сметка се објавени на оваа тема
- Големи количини на податоци
- Висока фреквенција на ажурирање
- paa.public.accounts.{ACCOUNT}.метаподатоци
- Содржи метаподатоци поврзани со метричките податоци, на прampод тестот, мониторот или агентот за тестирање поврзани со метриката
- Мали количини на податоци
- Ниска фреквенција на ажурирање
Овозможување на Streaming API
ЗАБЕЛЕШКА: Овие инструкции треба да се извршуваат на серверот Контролен центар користејќи sudo.
Бидејќи Streaming API додава некои надземни трошоци во Контролниот центар, тој стандардно не е овозможен. За да го овозможиме API, прво мора да овозможиме објавување на метрика на Кафка во главната конфигурација file:
KAFKA_METRICS_ENABLED = Точно
ПРЕДУПРЕДУВАЊЕ: Овозможувањето на оваа функција може да влијае на перформансите на Контролниот центар. Проверете дали сте го димензионирале вашиот пример соодветно.
Следно, за да се овозможи проследување на овие метрики до правилните теми за Кафка:
стриминг-api: точно
За да ги овозможите и стартувате услугите за Streaming API, извршете:
- sudo ncc услугите овозможуваат timescaledb метрика
- sudo ncc услугите стартуваат timescaledb метрика
Конечно, рестартирајте ги услугите:
- sudo ncc услугите се рестартираат
Потврда дека API-то за стриминг работи во контролниот центар
ЗАБЕЛЕШКА: Овие инструкции треба да се извршуваат на серверот Контролен центар.
Сега можете да потврдите дека добивате метрика за точните теми на Кафка. За да го направите тоа, инсталирајте ја алатката kafkacat:
- sudo apt-get ажурирање
- sudo apt-get install kafkacat
Ако имате тест или монитор што работи во Контролниот центар, треба да можете да користите kafkacat за да добивате метрика и метаподатоци за овие теми.
Заменете ја мојата сметка со краткото име на вашата сметка (ова е она што го гледате во вашиот Контролен центар URL):
- извезете METRICS_TOPIC=paa.public.accounts.myaccount.metrics
- извезете METADATA_TOPIC=paa.public.accounts.myaccount.metadata
Сега треба да ги видите метриките со извршување на оваа команда:
- kafkacat -b ${KAFKA_FQDN}:9092 -t ${METRICS_TOPIC} -C -e
На view метаподатоци, извршете ја следнава команда (забележете дека ова нема да се ажурира толку често):
- kafkacat -b ${KAFKA_FQDN}:9092 -t ${METADATA_TOPIC} -C -e
ЗАБЕЛЕШКА:
kafkacat”Клиент прamples “на страница 14
Ова потврдува дека имаме работен Streaming API од Контролниот центар. Сепак, најверојатно сте заинтересирани да пристапите до податоците од надворешен клиент наместо тоа. Следниот дел опишува како да се отвори Кафка за надворешен пристап.
Отворање на Кафка за надворешни домаќини
ЗАБЕЛЕШКА: Овие инструкции треба да се извршуваат на серверот Контролен центар.
Стандардно, Кафка што работи на Контролниот центар е конфигурирана да слуша само на локалниот хост за внатрешна употреба. Можно е да се отвори Кафка за надворешни клиенти со менување на поставките на Кафка.
Поврзување со Кафка: предупредувања
ВНИМАНИЕ: Ве молиме прочитајте го ова внимателно, бидејќи лесно е да наидете на проблеми со врската со Кафка ако не сте ги разбрале овие концепти.
Во поставувањето на Контролниот центар опишано во овој документ, постои само еден брокер на Кафка.
Сепак, имајте предвид дека брокерот на Кафка треба да работи како дел од кластерот Кафка кој може да се состои од многу брокери на Кафка.
Кога се поврзувате со брокер на Кафка, клиентот на Кафка воспоставува првична врска. Во врска со оваа врска, брокерот на Кафка пак ќе врати список на „рекламирани слушатели“, што е список на еден или повеќе брокери на Кафка.
По добивањето на оваа листа, клиентот на Кафка ќе се исклучи, а потоа повторно ќе се поврзе со еден од овие рекламирани слушатели. Рекламираните слушатели мора да содржат имиња на домаќини или IP адреси кои се достапни за клиентот Кафка, или клиентот нема да успее да се поврзе.
Ако се користи SSL шифрирање, што вклучува SSL сертификат кој е поврзан со одредено име на домаќин, уште поважно е клиентот на Kafka да ја добие точната адреса за поврзување, бидејќи во спротивно врската може да биде одбиена.
Прочитајте повеќе за слушателите на Кафка овде: www.confluent.io/blog/kafka-listeners-explained
SSL/TLS енкрипција
За да се увериме дека само доверливите клиенти имаат пристап до Кафка и АПИ-то за стриминг, мора да го конфигурираме следново:
- Автентикација: Клиентите мора да дадат корисничко име и лозинка преку SSL/TLS безбедна врска помеѓу клиентот и Кафка.
- Овластување: автентицираните клиенти можат да извршуваат задачи регулирани со ACL.
Еве крајview:
*) Автентикација на корисничко име/лозинка извршена на канал шифриран со SSL
За целосно да разберете како функционира шифрирањето SSL/TLS за Кафка, ве молиме погледнете ја официјалната документација: docs.confluent.io/platform/current/kafka/encryption.html
Заврши сертификатот SSL/TLSview
ЗАБЕЛЕШКА: Во оваа потсекција ќе ја користиме следната терминологија:
Сертификат: SSL сертификат потпишан од орган за сертификати (CA). Секој брокер на Кафка има по еден.
Магазин за клучеви: продавницата за клучеви file што го чува сертификатот. Клучарата file го содржи приватниот клуч на сертификатот; затоа, треба да се чува безбедно.
Truststore: А file кои ги содржат доверливите CA сертификати.
За да ја поставите автентикацијата помеѓу надворешен клиент и Кафка што работи во контролниот центар, двете страни мора да имаат складиште за клучеви дефинирано со поврзан сертификат потпишан од орган за сертификати (CA) заедно со коренскиот сертификат CA.
Дополнително на ова, клиентот мора да има и truststore со CA root сертификат.
Главниот сертификат CA е заеднички за брокерот Кафка и клиентот Кафка.
Креирање на потребните сертификати
Ова е опфатено во „Додаток“ на страница 17.
Кафка Брокер SSL/TLS конфигурација во контролниот центар
ЗАБЕЛЕШКА: Овие инструкции треба да се извршуваат на серверот Контролен центар.
ЗАБЕЛЕШКА: Пред да продолжите, мора да ја креирате продавницата за клучеви што го содржи сертификатот SSL следејќи ги упатствата во „Додаток“ на страница 17. Патеките споменати подолу доаѓаат од овие упатства.
Продавницата за клучеви SSL е a file зачувани на диск со file продолжување .jks.
Откако ќе ги имате достапни потребните сертификати и за брокерот Кафка и за клиентот Кафка, можете да продолжите со конфигурирање на брокерот Кафка што работи во Контролниот центар. Треба да го знаете следново:
- : Јавното име на домаќин на Контролниот центар; ова мора да биде решливо и достапно за клиентите на Кафка.
- : Лозинката за складиште на клучеви дадена при креирањето на SSL сертификатот.
- и : Ова се лозинките што сакате да ги поставите за администраторот и клиентот, соодветно. Имајте предвид дека можете да додадете повеќе корисници, како што е наведено во прampле.
Уредете ги или додајте (со sudo пристап) својствата подолу во /etc/kafka/server.properties, вметнувајќи ги горните променливи како што е прикажано:
ПРЕДУПРЕДУВАЊЕ: Не отстранувајте PLAINTEXT://localhost:9092; ова ќе ја прекине функционалноста на Контролниот центар бидејќи внатрешните услуги нема да можат да комуницираат.
- …
- # Адресите што ги слуша брокерот на Кафка.
- слушатели=PLAINTEXT://localhost:9092,SASL_SSL://0.0.0.0:9093
- # Ова се домаќините што се рекламираат на кој било клиент што се поврзува.
- advertised.listeners=PLAINTEXT://localhost:9092,SASL_SSL:// :9093…
- ####### ПРИЛАГОДЕН КОНФИГ
- # SSL КОНФИГУРАЦИЈА
- ssl.endpoint.identification.algorithm=
ssl.keystore.location=/var/ssl/private/kafka.server.keystore.jks - ssl.keystore.password=
- ssl.key.password=
- ssl.client.auth=none
- ssl.protocol=TLSv1.2
- # SASL конфигурација
- sasl.овозможено.mechanisms=PLAIN
- корисничко име=”админ” \
- лозинка =” ” \
- user_admin=” ” \
- user_client=” ”;
- # ЗАБЕЛЕШКА може да се додадат повеќе корисници со user_ =
- # Овластување, вклучете ACL
- autorizer.class.name=kafka.security.authorizer.AclAuthorizer super.users=Корисник:admin
Поставување списоци за контрола на пристап (ACL)
Вклучување ACL на локалниот хост
ПРЕДУПРЕДУВАЊЕ: Прво мора да поставиме ACL за локалниот хост, така што самиот Контролен центар сè уште може да пристапи до Кафка. Ако ова не се направи, работите ќе се скршат.
- –authorizer kafka.security.authorizer.AclAuthorizer \
- –autorizer-properties zookeeper.connect=localhost:2181 \
- –add –allow-principal Корисник:ANONYMOUS –allow-host 127.0.0.1 –кластер
- /usr/lib/kafka/bin/kafka-acls.sh \
- –authorizer kafka.security.authorizer.AclAuthorizer \
- –autorizer-properties zookeeper.connect=localhost:2181 \
- –add –allow-principal Корисник:ANONYMOUS –allow-host 127.0.0.1 –тема „*“
- /usr/lib/kafka/bin/kafka-acls.sh \
- –authorizer kafka.security.authorizer.AclAuthorizer \
- –autorizer-properties zookeeper.connect=localhost:2181 \
- –add –allow-principal Корисник:ANONYMOUS –allow-host 127.0.0.1 –група „*“
Потоа треба да овозможиме ACL за надворешен пристап само за читање, така што на надворешните корисници им е дозволено да ги читаат темите paa.public.*.
### записи во ACL за анонимни корисници /usr/lib/kafka/bin/kafka-acls.sh \
ЗАБЕЛЕШКА: За поситна контрола, ве молиме погледнете ја официјалната документација на Кафка.
- –authorizer kafka.security.authorizer.AclAuthorizer \
- –autorizer-properties zookeeper.connect=localhost:2181 \
- –add –allow-principal User:* –operation read –operation describe \ –group 'NCC'
- /usr/lib/kafka/bin/kafka-acls.sh \
- –authorizer kafka.security.authorizer.AclAuthorizer \
- –autorizer-properties zookeeper.connect=localhost:2181 \
- –add –allow-principal Корисник:* –операција читање –операција describe \ –тема paa.public. –ресурс-шаблон-тип со префикс
Откако ќе завршите со ова, треба да ги рестартирате услугите:
### записи во ACL за надворешни корисници /usr/lib/kafka/bin/kafka-acls.sh \
- sudo ncc услугите се рестартираат
За да потврдите дека клиентот може да воспостави безбедна врска, извршете ја следнава команда на надворешен уред
клиентски компјутер (не на серверот на Контролниот центар). Подолу, PUBLIC_HOSTNAME е името на домаќинот на Контролниот центар:
- openssl s_client -debug -connect ${PUBLIC_HOSTNAME}:9093 -tls1_2 | grep „Безбедното повторно преговарање е поддржано“
Во излезот на командата треба да го видите сертификатот на серверот, како и следново:
- Поддржано е безбедно повторно преговарање
За да се уверите дека внатрешните услуги добиле пристап до серверот Кафка, ве молиме проверете го следниот дневникfiles:
- /var/log/kafka/server.log
- /var/log/kafka/kafka-authorizer.log
Валидирање на поврзаноста со надворешен клиент
кафкакат
ЗАБЕЛЕШКА: Овие инструкции треба да се извршуваат на клиентски компјутер (не на серверот на контролниот центар).
ЗАБЕЛЕШКА: За прикажување на информации за метриката, проверете дали работи барем еден монитор во Контролниот центар.
За да се потврди и потврди поврзувањето како надворешен клиент, можно е да се користи алатката kafkacat што беше инсталирана во делот „Потврда дека API-то за стриминг работи во контролниот центар“ на страница 4.
Направете ги следните чекори:
ЗАБЕЛЕШКА: Подолу, CLIENT_USER е корисникот претходно наведен во file /etc/kafka/server.properties во Контролниот центар: имено, user_client и лозинката поставена таму.
Главниот сертификат CA што се користи за потпишување на SSL сертификатот од страна на серверот мора да биде присутен на клиентот.
Креирај а file клиент.својства со следната содржина:
- безбедност.protocol=SASL_SSL
- ssl.ca.location={PATH_TO_CA_CERT}
- sasl.механизми=РАМНИЦА
- sasl.username={CLIENT_USER}
- sasl.password={CLIENT_PASSWORD}
каде
- {PATH_TO_CA_CERT} е локацијата на коренскиот сертификат CA што го користи брокерот Кафка
- {CLIENT_USER} и {CLIENT_PASSWORD} се кориснички акредитиви за клиентот.
Извршете ја следнава команда за да ја видите пораката што ја консумира kafkacat:
- извоз KAFKA_FQDN=
- извезете METRICS_TOPIC=paa.public.accounts. .метрика
- kafkacat -b ${KAFKA_FQDN}:9093 -F клиент.својства -t ${METRICS_TOPIC} -C -e
каде што {METRICS_TOPIC} е името на темата за Кафка со префикс „paa.public.“.
ЗАБЕЛЕШКА: Постарите верзии на kafkacat не ја обезбедуваат опцијата -F за читање на поставките на клиентот од a file. Ако користите таква верзија, мора да ги дадете истите поставки од командната линија како што е прикажано подолу.
kafkacat -b ${KAFKA_FQDN}:9093 \
- X security.protocol=SASL_SSL \
- X ssl.ca.location={PATH_TO_CA_CERT} \
- X sasl.mechanisms=PLAIN \
- X sasl.username={CLIENT_USER} \
- X sasl.password={CLIENT_PASSWORD} \
- t ${METRICS_TOPIC} -C -e
За дебагирање на поврзувањето, можете да ја користите опцијата -d:
Дебагирајте ги комуникациите на потрошувачите
kafkacat -d потрошувач -b ${KAFKA_FQDN}:9093 -F клиент.својства -t ${METRICS_TOPIC} -C -e
# Дебагирајте ги комуникациите на брокерот
kafkacat -d посредник -b ${KAFKA_FQDN}:9093 -F клиент.својства -t ${METRICS_TOPIC} -C -e
Не заборавајте да се повикате на документацијата за библиотеката на клиенти на Кафка што се користи, бидејќи својствата може да се разликуваат од оние во client.properties.
Формат на порака
Пораките што се користат за темите за метрика и метаподатоци се серијализирани во формат на протокол бафери (protobuf) (види developers.google.com/protocol-buffers). Шемите за овие пораки се придржуваат до следниов формат:
Шема на метрика Protobuf
- синтакса = „прото3“;
- увезете „google/protobuf/timestamp.прото“;
- пакет paa.streamingapi;
- опција go_package = „.;paa_streamingapi“;
- Метрика на пораката {
- google.protobuf.Timestamp времеamp = 1;
- карта вредности = 2;
- int32 stream_id = 3;
- }
- /**
- * Метричката вредност може да биде или цел број или плови.
- */
- порака MetricValue {
- еден од типот {
- int64 int_val = 1;
- float float_val = 2;
- }
- }
Метаподатоци Protobuf Шема
- синтакса = „прото3“;
- пакет paa.streamingapi;
- опција go_package = „.;paa_streamingapi“;
- Метаподатоци за порака {
- int32 stream_id = 1;
- стринг-проток_име = 2;
- карта tags = 13;
- }
Клиент Прampлес
ЗАБЕЛЕШКА: Овие команди се наменети да работат на надворешен клиент, на прampод вашиот лаптоп или слично, а не во Контролен центар.
ЗАБЕЛЕШКА: За да се прикажат информациите за метриката, проверете дали работи барем еден монитор во Контролниот центар.
Тарболот на Контролниот центар ја вклучува архивата paa-streaming-api-client-examples.tar.gz (клиент-прamples), кој содржи прample Python скрипта што покажува како да се користи Streaming API.
Инсталирање и конфигурирање на клиент Exampлес
Ќе најдете клиент-ексampво папката Paragon Active Assurance Control Center:
- извоз CC_VERSION=4.1.0
- cd ./paa-control-center_${CC_VERSION}
- ls paa-streaming-api-client-examples*
За да инсталирате клиент-ексampна вашиот надворешен клиентски компјутер, постапете на следниов начин:
- # Креирајте директориум за извлекување на содржината на клиентот прamples tarball
- mkdir paa-streaming-api-client-exampлес
- # Извлечете ја содржината на клиентот прamples tarball
- tar xzf paa-streaming-api-client-examples.tar.gz -C paa-streaming-api-client-exampлес
- # Одете во новосоздадениот директориум
- cd paa-streaming-api-client-exampлес
клиент-ексamples бара Docker да работи. Упатствата за преземање и инсталација за Docker може да се најдат на https://docs.docker.com/engine/install.
Користење на клиент прampлес
Клиентот-ексamples алатките може да работат или во основен или во напреден режим за да се изгради exampпомалку со различна сложеност. Во двата случаи, можно е да се изврши и ексamples со конфигурација file кои содржат дополнителни својства за понатамошно прилагодување на клиентската страна.
Основен режим
Во основниот режим, метриката и нивните метаподатоци се пренесуваат одделно. За таа цел, клиентот ја слуша секоја тема на Кафка достапна за надворешен пристап и едноставно ги печати примените пораки во конзолата.
За да започнете со извршување на основниот прamples, трчај:
- build.sh run-basic –kafka-brokers localhost:9092 –сметка ACCOUNT_SHORTNAME
каде што ACCOUNT_SHORTNAME е краткото име на сметката од која сакате да ја добиете метриката.
Да се прекине извршувањето на ексample, притиснете Ctrl + C. (Може да има мало задоцнување пред извршувањето да престане бидејќи клиентот чека настан за истек на време.)
Напреден режим
ЗАБЕЛЕШКА: Метриката се прикажува само за HTTP мониторите што работат во Контролниот центар.
Извршувањето во напреден режим ја покажува корелацијата помеѓу метриката и пораките со метаподатоци. Ова е
можно благодарение на присуството во секоја метричка порака на полето за идентификација на преносот кое се однесува на соодветната порака за метаподатоци.
За да се изврши напредната ексamples, трчај:
- build.sh run-advanced –kafka-brokers localhost:9092 –сметка ACCOUNT_SHORTNAME
каде што ACCOUNT_SHORTNAME е краткото име на сметката од која сакате да ја добиете метриката.
Да се прекине извршувањето на ексample, притиснете Ctrl + C. (Може да има мало задоцнување пред извршувањето да престане бидејќи клиентот чека настан за истек на време.)
Дополнителни поставки
Можно е да се кандидира на ексamples со дополнителна конфигурација на клиентот користејќи го –config-file опција проследена со a file име кое содржи својства во формата клуч=вредност.
- build.sh run-advanced \
- –kafka-brokers localhost:9092 \
- -сметка ACCOUNT_SHORTNAME \
- -конфигурација-file client_config.својства
ЗАБЕЛЕШКА: Сите files наведени во командата погоре мора да се наоѓа во тековниот директориум и да се упатува само со помош на релативни патеки. Ова се однесува и на –config-file аргумент и на сите записи во конфигурацијата file кои опишуваат file локации.
Валидирање на автентикација на надворешен клиент
За да се потврди автентикацијата на клиентот надвор од Контролниот центар користејќи клиент-exampлес, извршете ги следните чекори:
Од папката Paragon Active Assurance Control Center, префрлете се на paa-streaming-api-client-examples папка:
cd paa-streaming-api-client-exampлес
- Копирајте го CA root сертификатот ca-cert во тековниот директориум.
- Креирајте клиент.својства file со следнава содржина:
security.protocol=SASL_SSL ssl.ca.location=ca-cert
сасл.механизам=РАМНИЦА
sasl.username={CLIENT_USER}
sasl.password={CLIENT_PASSWORD}
каде што {CLIENT_USER} и {CLIENT_PASSWORD} се кориснички акредитиви за клиентот.
Стартувај основни прamples:
- извоз KAFKA_FQDN=
- build.sh run-basic –kafka-brokers ${KAFKA_FQDN}:9093 \
- -сметка ACCOUNT_SHORTNAME
- -конфигурација-file клиент.својства
каде што ACCOUNT_SHORTNAME е краткото име на сметката од која сакате да ја добиете метриката.
Стартувај напредни ексamples:
- извоз KAFKA_FQDN=
- build.sh run-advanced –kafka-brokers ${KAFKA_FQDN}:9093 \
- -сметка ACCOUNT_SHORTNAME
- -конфигурација-file клиент.својства
Додаток
Во овој додаток опишуваме како да креирате:
- продавница за клучеви file за складирање на SSL сертификатот за брокер на Кафка
- продавница за доверба file за складирање на коренскиот сертификат за авторитет за сертификати (CA) што се користи за потпишување на сертификатот за брокер на Кафка.
Креирање на сертификат за брокер на Кафка
Создавање сертификат со користење на вистински орган за сертификати (препорачано)
Се препорачува да добиете вистински SSL сертификат од доверлив CA.
Откако ќе се одлучите за CA, копирајте го нивниот CA root сертификат ca-cert file до вашиот сопствен пат како што е прикажано подолу:
- извезете CA_PATH=~/my-ca
- mkdir ${CA_PATH}
- cp ca-cert ${CA_PATH}
Создадете свој авторитет за сертификати
ЗАБЕЛЕШКА: Вообичаено, вашиот сертификат треба да го потпише вистински орган за издавање сертификати; види го претходниот потсекција. Она што следи е само бившиampле.
Овде создаваме сопствен коренски сертификат за авторитет за сертификати (CA). file важи 999 дена (не се препорачува во производството):
- # Направете директориум за складирање на CA
- извезете CA_PATH=~/my-ca
- mkdir ${CA_PATH}
- # Генерирајте го сертификатот CA
- openssl req -new -x509 -keyout ${CA_PATH}/ca-key -out ${CA_PATH}/ca-cert -days 999
Креирање на клиент Truststore
Сега можете да креирате продавница за доверба file што го содржи ca-серт генериран погоре. Ова file ќе му бидат потребни на клиентот Kafka кој ќе пристапи до Streaming API:
- keytool -keystore kafka.client.truststore.jks \
- алијас CARoot \
- увозник -file ${CA_PATH}/ca-cert
Сега кога сертификатот CA е во продавницата за доверба, клиентот ќе му верува на секој сертификат потпишан со него.
Треба да го копирате file kafka.client.truststore.jks на позната локација на вашиот клиентски компјутер и посочете на неа во поставките.
Креирање на продавница за клучеви за брокерот Кафка
За да го генерирате SSL сертификатот за брокерот Кафка, а потоа продавницата за клучеви kafka.server.keystore.jks, постапете на следниов начин:
Генерирање на SSL сертификат
Подолу, 999 е бројот на денови на важност на продавницата за клучеви, а FQDN е целосно квалификуваното име на домен на клиентот (јавен хост име на јазолот).
ЗАБЕЛЕШКА: Важно е FQDN да се совпаѓа со точното име на домаќин што клиентот Кафка ќе го користи за да се поврзе со Контролниот центар.
- sudo mkdir -p /var/ssl/private
- sudo chown -R $КОРИСНИК: /var/ssl/приватни
- cd /var/ssl/private
- извоз FQDN= keytool -keystore kafka.server.keystore.jks \
- – алијас сервер \
- – важност 999 \
- – genkey -keyalg RSA -ext SAN=dns:${FQDN}
Направете барање за потпишување сертификат и складирајте го во file именувано барање за сертификат-сервер:
- keytool -keystore kafka.server.keystore.jks \
- – алијас сервер \
- – certreq \
- – file сертификат-сервер-барање
Сега треба да го испратите file сервер-сервер-барање до вашиот орган за сертификати (CA) ако користите вистински. Потоа ќе го вратат потпишаниот сертификат. Подолу ќе го наречеме ова како потпис на серверот-сервер.
Потпишување на SSL сертификат со користење на само-создаден CA сертификат
ЗАБЕЛЕШКА: Повторно, користењето на сопствен CA не се препорачува во производствениот систем.
Потпишете го сертификатот користејќи CA со помош на file сервер-сервер-барање, што го произведува потпишаниот сертификат потпишан од серверот-сервер. Види подолу; ca-password е лозинката поставена при креирањето на сертификатот CA.
- cd /var/ssl/private openssl x509 -req \
- – CA ${CA_PATH}/ca-cert \
- – CA-клуч ${CA_PATH}/ca-key \
- – во барање за сертификат-сервер \
- – надвор од сертификат-сервер потпишан \
- – денови 999 - CAкреатерски \
- – passin pass:{ca-password}
Увезување на потпишаниот сертификат во продавницата за клучеви
Увезете го коренскиот сертификат ca-cert во продавницата за клучеви:
- keytool -keystore kafka.server.keystore.jks \
- – алијас ca-cert \
- – увоз \
- – file ${CA_PATH}/ca-cert
Увезете го потпишаниот сертификат наведен како потпишан од серверот:
- keytool -keystore kafka.server.keystore.jks \
- – алијас сервер \
- – увоз \
- – file Серт-сервер-потпишан
На file kafka.server.keystore.jks треба да се копира на позната локација на серверот на Контролниот центар, а потоа да се наведе во /etc/kafka/server.properties.
Користење на Streaming API
ВО ОВОЈ ДЕЛ
- Општо | 20
- Имиња на теми за Кафка | 21
- Exampдел од Користење на API за стриминг | 21
Општо
Стриминг API ги презема податоците за тестирање и монитор. Не може да се издвои една од овие категории.
Стриминг API не презема податоци од тестови засновани на скрипти (оние претставени со правоаголник наместо сложувалка во GUI на контролниот центар), како што се тестовите за активирање на услугата за етернет и тестовите за транспарентност.
Имиња на теми за Кафка
Имињата на темите на Кафка за стриминг API се како што следува, каде %s е краткото име на сметката на Контролниот центар (означено при креирањето на сметката):
- конст (
- exporterName = „кафка“
- metadataTopicTpl = „paa.public.accounts.%s.metadata“ metricsTopicTpl = „paa.public.accounts.%s.metrics“ )
Exampдел од користењето на API за стриминг
ПоранешниотampСледниве се наоѓаат во tarball paa-streaming-api-client-examples.tar.gz содржани во Контролниот центар tarball.
Прво, постои основен прampле демонстрира како метриката и нивните метаподатоци се пренесуваат одделно и едноставно ги печатат примените пораки во конзолата. Можете да го извршите на следниов начин:
- sudo ./build.sh run-basic –kafka-brokers localhost:9092 –сметка ACCOUNT_SHORTNAME
Има и понапреден бившampле каде метриката и пораките за метаподатоци се во корелација. Користете ја оваа команда за да ја извршите:
- sudo ./build.sh run-advanced –kafka-brokers localhost:9092 –сметка ACCOUNT_SHORTNAME
Треба да користите sudo за да ги извршите командите на Docker како што се оние погоре. Изборно, можете да ги следите чекорите по инсталацијата на Linux за да можете да ги извршувате командите на Docker без sudo. За детали, одете на docs.docker.com/engine/install/linux-postinstall.
Juniper Networks, логото на Juniper Networks, Juniper и Junos се регистрирани заштитни знаци на Juniper Networks, Inc. во Соединетите Американски Држави и други земји. Сите други трговски марки, услужни марки, регистрирани марки или регистрирани услужни марки се сопственост на нивните соодветни сопственици. Juniper Networks не презема никаква одговорност за какви било неточности во овој документ. Juniper Networks го задржува правото да ја промени, измени, пренесе или на друг начин да ја ревидира оваа публикација без известување. Авторски права © 2023 Juniper Networks, Inc. Сите права се задржани.
Документи / ресурси
![]() |
Juniper NETWORKS Streaming API софтвер [pdf] Упатство за корисникот Стриминг API софтвер, API софтвер, софтвер |