Juniper AĞLARI Akış API Yazılımı
Ürün Bilgileri
Özellikler
- Ürün Adı: Paragon Aktif Güvencesi
- Sürüm: 4.1
- Yayınlanma Tarihi: 2023-03-15
Giriiş:
Bu kılavuz, ürünün akış API'sini kullanarak Paragon Active Assurance'dan nasıl veri çıkarılacağına ilişkin talimatlar sağlar. Akış istemcisi ve API, Paragon Active Assurance kurulumuna dahildir, ancak API'yi kullanmadan önce bazı yapılandırmalar gereklidir. Yapılandırma işlemi "String API'yi Yapılandırma" bölümünde ele alınmaktadır.
Akış API'sini Yapılandırma:
Aşağıdaki adımlar akış API'sini yapılandırma sürecini özetlemektedir:
Üzerindeview
Kafka, çeşitli kaynaklardan verilerin gerçek zamanlı yakalanması ve depolanması için tasarlanmış bir etkinlik akışı platformudur. Olay akışlarının dağıtılmış, ölçeklenebilir, hataya dayanıklı ve güvenli bir şekilde yönetilmesini sağlar. Bu kılavuz, Kafka'nın Paragon Active Assurance Control Center'daki Streaming API özelliğini kullanacak şekilde yapılandırılmasına odaklanmaktadır.
Terminoloji
Streaming API, harici istemcilerin Kafka'dan ölçüm bilgilerini almasına olanak tanır. Bir test veya izleme görevi sırasında Test Aracıları tarafından toplanan ölçümler Akış hizmetine gönderilir. Akış hizmeti, işlendikten sonra bu ölçümleri ek meta verilerle birlikte Kafka'da yayınlar.
Streaming API, ölçümleri ve meta verileri düzenlemek ve depolamak için Kafka konularını kullanır. Kafka konuları belirli gereksinimlere göre oluşturulabilir ve yönetilebilir.
Akış API'sini Etkinleştirme
Akış API'sini etkinleştirmek için şu adımları izleyin:
- Sudo'yu kullanarak Kontrol Merkezi sunucusunda aşağıdaki komutları çalıştırın:
KAFKA_METRICS_ENABLED = Gerçek sudo ncc hizmetleri zaman ölçeklib ölçümlerini etkinleştirir sudo ncc hizmetleri zaman ölçeklib ölçümlerini başlatır sudo ncc hizmetleri yeniden başlat
Akış API'sinin Kontrol Merkezinde Çalıştığını Doğrulama:
Doğru Kafka konularıyla ilgili ölçümler aldığınızı doğrulamak için:
- Kafkacat yardımcı programını aşağıdaki komutlarla yükleyin:
sudo apt-get güncelleme
sudo apt-get kafkacat'ı yükle
- "Hesabım" ifadesini hesabınızın kısa adıyla değiştirin.
Kontrol Merkezi URL:
METRICS_TOPIC=paa.public.accounts.myaccount.metrics'i dışa aktar
METADATA_TOPIC=paa.public.accounts.myaccount.metadata'yı dışa aktar
- Aşağıdaki komutu çalıştırın view ölçümler:
kafkacat -b ${KAFKA_FQDN}:9092 -t ${METRICS_TOPIC} -C -e
Not: Yukarıdaki komut metrikleri gösterecektir. - İle view meta veriler için aşağıdaki komutu çalıştırın:
kafkacat -b ${KAFKA_FQDN}:9092 -t ${METADATA_TOPIC} -C -e
Not: Yukarıdaki komut meta verileri görüntüleyecektir ancak eskisi kadar sık güncellenmeyecektir.
Eski Müşteriamples
Eski müşteri içinampDosyalar ve daha fazla bilgi için kullanım kılavuzunun 14. sayfasına bakın.
SSS (Sıkça Sorulan Sorular)
- S: Paragon Aktif Güvencesi Nedir?
C: Paragon Active Assurance, izleme ve test etme yetenekleri sağlayan bir üründür. - S: Akış API'si nedir?
C: Streaming API, Paragon Active Assurance'ın harici istemcilerin Kafka'dan metrik bilgilerini almasına olanak tanıyan bir özelliğidir. - S: Akış API'sini nasıl etkinleştiririm?
C: Streaming API'yi etkinleştirmek için kullanım kılavuzunun "String API'yi Etkinleştirme" bölümünde özetlenen adımları izleyin. - S: Streaming API'nin çalıştığını nasıl doğrulayabilirim?
C: Akış API'sinin işlevselliğinin nasıl doğrulanacağına ilişkin talimatlar için "Akış API'sinin Kontrol Merkezinde Çalıştığını Doğrulama" bölümüne bakın.
giriiş
Bu kılavuz, ürünün akış API'si yoluyla Paragon Active Assurance'tan nasıl veri çıkarılacağını açıklar.
API ve akış istemcisi Paragon Active Assurance kurulumuna dahildir. Ancak API'yi kullanmadan önce biraz yapılandırma yapılması gerekir. Bu, "Akış API'sini Yapılandırma" sayfa 1 bölümünde ele alınmaktadır.
Üzerindeview
Bu bölüm, Akış API'sinin Kafka aracılığıyla metrik mesajlarına abone olmaya izin verecek şekilde nasıl yapılandırılacağını açıklamaktadır.
pr
Aşağıdan geçeceğiz:
- Akış API'sı nasıl etkinleştirilir?
- Harici istemcileri dinlemek için Kafka nasıl yapılandırılır
- Kafka'yı ACL'leri kullanacak ve söz konusu istemciler için SSL şifrelemesini ayarlayacak şekilde yapılandırma
Kafka nedir?
Kafka, çeşitli olay kaynaklarından (sensörler, veritabanları, mobil cihazlar) olay akışları biçiminde gönderilen verilerin gerçek zamanlı olarak yakalanmasına ve bu olay akışlarının daha sonra geri alınmak ve manipüle edilmek üzere dayanıklı bir şekilde saklanmasına olanak tanıyan bir olay akışı platformudur.
Kafka ile uçtan uca olay akışını dağıtılmış, yüksek düzeyde ölçeklenebilir, esnek, hataya dayanıklı ve güvenli bir şekilde yönetmek mümkündür.
NOT: Kafka birçok farklı şekilde yapılandırılabilir ve ölçeklenebilirlik ve yedekli sistemler için tasarlanmıştır. Bu belge yalnızca Paragon Active Assurance Control Center'da bulunan Streaming API özelliğini kullanacak şekilde nasıl yapılandırılacağına odaklanmaktadır. Daha gelişmiş kurulumlar için resmi Kafka belgelerine başvuruyoruz: kafka.apache.org/26/documentation.html.
Terminoloji
- Kafka: Olay akışı platformu.
- Kafka konusu: Olayların toplanması.
- Kafka abonesi/tüketicisi: Bir Kafka konusunda saklanan olayların alınmasından sorumlu bileşen.
- Kafka komisyoncusu: Bir Kafka kümesinin depolama katmanı sunucusu.
- SSL/TLS: SSL, İnternet üzerinden güvenli bilgi göndermek için geliştirilmiş güvenli bir protokoldür. TLS, 1999'da tanıtılan SSL'nin halefidir.
- SASL: Kullanıcı kimlik doğrulaması, veri bütünlüğü denetimi ve şifreleme için mekanizmalar sağlayan çerçeve.
- Akış API'si abonesi: Paragon Active Assurance'ta tanımlanan konularda saklanan ve harici erişim amaçlı olayların alınmasından sorumlu bileşen.
- Sertifika Yetkilisi: Ortak anahtar sertifikaları veren ve iptal eden güvenilir bir varlık.
- Sertifika Yetkilisi kök sertifikası: Bir Sertifika Yetkilisini tanımlayan genel anahtar sertifikası.
Akış API'sı Nasıl Çalışır?
Daha önce bahsedildiği gibi Akış API'si, harici istemcilerin Kafka'dan metrikler hakkında bilgi almasına izin verir.
Bir test veya izleme görevi sırasında Test Aracıları tarafından toplanan tüm ölçümler Akış hizmetine gönderilir. Bir işleme aşamasından sonra Akış hizmeti, bu ölçümleri ek meta verilerle birlikte Kafka'da yayınlar.
Kafka Konuları
Kafka, tüm verilerin yayınlandığı konular kavramına sahiptir. Paragon Active Assurance'da buna benzer pek çok Kafka konusu mevcuttur; ancak bunların yalnızca bir alt kümesi harici erişim içindir.
Control Center'daki her Paragon Active Assurance hesabının iki özel konusu vardır. Aşağıda, ACCOUNT hesabın kısa adıdır:
- paa.public.accounts.{ACCOUNT}.metrics
- Belirtilen hesap için tüm metrik mesajları bu konuda yayınlanır
- Büyük miktarda veri
- Yüksek güncelleme sıklığı
- paa.public.accounts.{ACCOUNT}.metadata
- Metrik verileriyle ilgili meta verileri içerir, örneğinampMetriklerle ilişkili test, izleme veya Test Aracısını dosyalayın
- Küçük miktarda veri
- Düşük güncelleme sıklığı
Akış API'sini Etkinleştirme
NOT: Bu talimatlar Kontrol Merkezi sunucusunda sudo kullanılarak çalıştırılacaktır.
Akış API'si, Kontrol Merkezine bir miktar ek yük getirdiğinden, varsayılan olarak etkin değildir. API'yi etkinleştirmek için önce ana yapılandırmada metriklerin Kafka'ya yayınlanmasını etkinleştirmeliyiz. file:
KAFKA_METRICS_ENABLED = Doğru
UYARI: Bu özelliğin etkinleştirilmesi Kontrol Merkezi performansını etkileyebilir. Örneğinizi buna göre boyutlandırdığınızdan emin olun.
Ardından, bu ölçümlerin doğru Kafka konularına iletilmesini etkinleştirmek için:
akış-api: doğru
Akış API hizmetlerini etkinleştirmek ve başlatmak için şunu çalıştırın:
- sudo ncc hizmetleri zaman ölçeklib ölçümlerini etkinleştirir
- sudo ncc hizmetleri zaman ölçeklib ölçümlerini başlatır
Son olarak, hizmetleri yeniden başlatın:
- sudo ncc hizmetleri yeniden başlat
Akış API'sinin Kontrol Merkezinde Çalıştığını Doğrulama
NOT: Bu talimatlar Kontrol Merkezi sunucusunda çalıştırılacaktır.
Artık doğru Kafka konularında ölçümler aldığınızı doğrulayabilirsiniz. Bunu yapmak için kafkacat yardımcı programını kurun:
- sudo apt-get güncelleme
- sudo apt-get kafkacat'ı yükle
Control Center'da çalışan bir testiniz veya monitörünüz varsa, kafkacat'i kullanarak bu konulardaki metrikleri ve meta verileri alabilmeniz gerekir.
myaccount'u hesabınızın kısa adı ile değiştirin (Kontrol Merkezinizde gördüğünüz şey budur) URL):
- METRICS_TOPIC=paa.public.accounts.myaccount.metrics'i dışa aktar
- METADATA_TOPIC=paa.public.accounts.myaccount.metadata'yı dışa aktar
Şimdi bu komutu çalıştırarak ölçümleri görmelisiniz:
- kafkacat -b ${KAFKA_FQDN}:9092 -t ${METRICS_TOPIC} -C -e
İle view meta veriler, aşağıdaki komutu çalıştırın (bunun eskisi kadar sık güncellenmeyeceğini unutmayın):
- kafkacat -b ${KAFKA_FQDN}:9092 -t ${METADATA_TOPIC} -C -e
NOT:
kafkacat”Eski Müşteriamples” sayfa 14
Bu, Kontrol Merkezi içinden çalışan bir Akış API'sine sahip olduğumuzu doğrular. Ancak, büyük ihtimalle bunun yerine harici bir istemciden verilere erişmekle ilgileniyorsunuz. Bir sonraki bölümde, Kafka'nın harici erişim için nasıl açılacağı açıklanmaktadır.
Harici Ana Bilgisayarlar için Kafka'yı Açma
NOT: Bu talimatlar Kontrol Merkezi sunucusunda çalıştırılacaktır.
Varsayılan olarak Kontrol Merkezinde çalışan Kafka, dahili kullanım için yalnızca localhost'ta dinleyecek şekilde yapılandırılmıştır. Kafka ayarlarını değiştirerek Kafka'yı harici istemcilere açmak mümkündür.
Kafka ile Bağlanmak: Uyarılar
DİKKAT: Bu kavramları anlamadıysanız, Kafka ile bağlantı sorunları yaşamanız kolay olduğundan, lütfen bunu dikkatlice okuyun.
Bu belgede açıklanan Kontrol Merkezi kurulumunda yalnızca tek bir Kafka aracı vardır.
Ancak, bir Kafka aracısının, birçok Kafka aracısından oluşabilen bir Kafka kümesinin parçası olarak çalıştırılması gerektiğini unutmayın.
Bir Kafka aracısına bağlanırken, ilk bağlantı Kafka istemcisi tarafından kurulur. Bu bağlantı üzerinden Kafka komisyoncusu, bir veya daha fazla Kafka komisyoncusunun listesi olan "reklamı yapılan dinleyicilerin" bir listesini döndürür.
Bu listeyi aldığında, Kafka istemcisi bağlantıyı kesecek ve ardından reklamı yapılan bu dinleyicilerden birine yeniden bağlanacaktır. Tanıtılan dinleyiciler, Kafka istemcisi tarafından erişilebilen ana bilgisayar adlarını veya IP adreslerini içermelidir, aksi takdirde istemci bağlanamaz.
Belirli bir ana bilgisayar adına bağlı bir SSL sertifikası içeren SSL şifrelemesi kullanılıyorsa, aksi takdirde bağlantı reddedilebileceği için Kafka istemcisinin bağlanmak için doğru adresi alması daha da önemlidir.
Kafka dinleyicileri hakkında daha fazlasını buradan okuyun: www.confluent.io/blog/kafka-listeners-açıklamalı
SSL/TLS Şifreleme
Yalnızca güvenilir istemcilerin Kafka'ya ve Akış API'sine erişmesine izin verildiğinden emin olmak için aşağıdakileri yapılandırmamız gerekir:
- Kimlik doğrulama: İstemcilerin, istemci ile Kafka arasındaki SSL/TLS güvenli bağlantısı üzerinden kullanıcı adı ve şifre sağlaması gerekir.
- Yetkilendirme: Kimliği doğrulanmış istemciler ACL'ler tarafından düzenlenen görevleri gerçekleştirebilir.
İşte bir bittiview:
*) SSL şifreli bir kanalda gerçekleştirilen kullanıcı adı/şifre doğrulaması
SSL/TLS şifrelemesinin Kafka için nasıl çalıştığını tam olarak anlamak için lütfen resmi belgelere bakın: docs.confluent.io/platform/current/kafka/encryption.html
SSL/TLS Sertifikası Bittiview
NOT: Bu alt bölümde aşağıdaki terminolojiyi kullanacağız:
Sertifika: Sertifika Yetkilisi (CA) tarafından imzalanan bir SSL sertifikası. Her Kafka komisyoncusunun bir tane vardır.
Anahtar deposu: Anahtar deposu file bu sertifikayı saklar. anahtar deposu file sertifikanın özel anahtarını içerir; bu nedenle güvenli bir şekilde saklanması gerekir.
Güven mağazası: A file güvenilen CA sertifikalarını içerir.
Harici bir istemci ile Kontrol Merkezi'nde çalışan Kafka arasında kimlik doğrulamasını ayarlamak için, her iki tarafta da CA kök sertifikasıyla birlikte bir Sertifika Yetkilisi (CA) tarafından imzalanmış ilgili bir sertifikayla tanımlanmış bir anahtar deposu olmalıdır.
Buna ek olarak, istemcinin ayrıca CA kök sertifikasına sahip bir güven deposuna sahip olması gerekir.
CA kök sertifikası, Kafka aracısı ve Kafka istemcisi için ortaktır.
Gerekli Sertifikaları Oluşturma
Bu, sayfa 17'deki “Ek” bölümünde ele alınmıştır.
Kontrol Merkezinde Kafka Broker SSL/TLS Yapılandırması
NOT: Bu talimatlar Kontrol Merkezi sunucusunda çalıştırılacaktır.
NOT: Devam etmeden önce “Ek” sayfa 17'deki talimatları izleyerek SSL sertifikasının bulunduğu anahtar deposunu oluşturmalısınız. Aşağıda belirtilen yollar bu talimatlardan gelmektedir.
SSL anahtar deposu bir file ile diskte saklanır. file uzantı .jks.
Hem Kafka aracısı hem de Kafka istemcisi için gerekli sertifikaları oluşturduktan sonra, Kontrol Merkezi'nde çalışan Kafka aracısını yapılandırarak devam edebilirsiniz. Aşağıdakileri bilmeniz gerekir:
- : Kontrol Merkezi'nin genel ana bilgisayar adı; bu çözülebilir ve Kafka istemcileri tarafından erişilebilir olmalıdır.
- : SSL sertifikası oluşturulurken sağlanan anahtar deposu şifresi.
- Ve : Bunlar sırasıyla yönetici ve istemci kullanıcısı için ayarlamak istediğiniz şifrelerdir. Örnekte belirtildiği gibi daha fazla kullanıcı ekleyebileceğinizi unutmayın.ampley.
/etc/kafka/server.properties içindeki aşağıdaki özellikleri düzenleyin veya ekleyin (sudo erişimiyle), yukarıdaki değişkenleri gösterildiği gibi ekleyin:
UYARI: PLAINTEXT://localhost:9092; dosyasını kaldırmayın. bu, dahili hizmetler iletişim kuramayacağından Kontrol Merkezi'nin işlevselliğini bozacaktır.
- …
- # Kafka komisyoncusunun dinlediği adresler.
- dinleyiciler=PLAINTEXT://localhost:9092,SASL_SSL://0.0.0.0:9093
- # Bunlar, bağlanan herhangi bir istemciye geri gönderilen ana bilgisayarlardır.
- reklamı yapılan.listeners=PLAINTEXT://localhost:9092,SASL_SSL:// :9093…
- ####### ÖZEL YAPILANDIRMA
- # SSL YAPILANDIRMASI
- ssl.endpoint.identification.algorithm=
ssl.keystore.location=/var/ssl/private/kafka.server.keystore.jks - ssl.keystore.şifre=
- ssl.key.şifre=
- ssl.client.auth=yok
- ssl.protocol=TLSv1.2
- # SASL yapılandırması
- sasl.enabled.mechanisms=DÜZ
- kullanıcı adı=”yönetici” \
- şifre=” ” \
- user_admin=” ” \
- user_client=” ”;
- # NOT user_ ile daha fazla kullanıcı eklenebilir =
- # Yetkilendirme, ACL'leri açın
- Authorizer.class.name=kafka.security.authorizer.AclAuthorizer super.users=Kullanıcı:admin
Erişim Kontrol Listelerini (ACL'ler) Ayarlama
Localhost'ta ACL'leri Açma
UYARI: Kontrol Merkezinin Kafka'ya hala erişebilmesi için öncelikle localhost için ACL'leri ayarlamamız gerekir. Bu yapılmazsa işler bozulur.
- –yetkilendirici kafka.security.authorizer.AclAuthorizer \
- –yetkilendirici-özellikler zookeeper.connect=localhost:2181 \
- –add –allow-principal Kullanıcı:ANONYMOUS –allow-host 127.0.0.1 –küme
- /usr/lib/kafka/bin/kafka-acls.sh \
- –yetkilendirici kafka.security.authorizer.AclAuthorizer \
- –yetkilendirici-özellikler zookeeper.connect=localhost:2181 \
- –add –allow-principal Kullanıcı:ANONYMOUS –allow-host 127.0.0.1 –konu '*'
- /usr/lib/kafka/bin/kafka-acls.sh \
- –yetkilendirici kafka.security.authorizer.AclAuthorizer \
- –yetkilendirici-özellikler zookeeper.connect=localhost:2181 \
- –add –allow-principal Kullanıcı:ANONYMOUS –allow-host 127.0.0.1 –group '*'
Ardından harici kullanıcıların paa.public.* konularını okumasına izin verilmesi için ACL'leri harici salt okunur erişim için etkinleştirmemiz gerekir.
### Anonim kullanıcılar için ACL girişleri /usr/lib/kafka/bin/kafka-acls.sh \
NOT: Daha ayrıntılı kontrol için lütfen resmi Kafka belgelerine bakın.
- –yetkilendirici kafka.security.authorizer.AclAuthorizer \
- –yetkilendirici-özellikler zookeeper.connect=localhost:2181 \
- –add –allow-ana Kullanıcı:* –işlem okuma –işlem açıklama \ –grup 'NCC'
- /usr/lib/kafka/bin/kafka-acls.sh \
- –yetkilendirici kafka.security.authorizer.AclAuthorizer \
- –yetkilendirici-özellikler zookeeper.connect=localhost:2181 \
- –add –allow-principal User:* –işlem okuma –işlem açıklama \ –konu paa.public. –kaynak-desen-tipi öneki
Bununla işiniz bittiğinde, hizmetleri yeniden başlatmanız gerekir:
### Harici kullanıcılar için ACL girişleri /usr/lib/kafka/bin/kafka-acls.sh \
- sudo ncc hizmetleri yeniden başlat
Bir istemcinin güvenli bir bağlantı kurabildiğini doğrulamak için aşağıdaki komutu harici bir bilgisayarda çalıştırın.
istemci bilgisayar (Kontrol Merkezi sunucusunda değil). Aşağıda PUBLIC_HOSTNAME, Kontrol Merkezi ana bilgisayar adıdır:
- openssl s_client -hata ayıklama -bağlantı ${PUBLIC_HOSTNAME}:9093 -tls1_2 | grep "Güvenli Yeniden Anlaşma IS desteklenir"
Komut çıktısında, aşağıdakilerin yanı sıra sunucu sertifikasını da görmelisiniz:
- Güvenli Yeniden Anlaşma IS desteklenir
Dahili hizmetlere Kafka sunucusuna erişim izni verildiğinden emin olmak için lütfen aşağıdaki günlüğü kontrol edinfiles:
- /var/log/kafka/server.log
- /var/log/kafka/kafka-yetkilendirici.log
Harici İstemci Bağlantısını Doğrulama
kafkacat
NOT: Bu talimatlar bir istemci bilgisayarda çalıştırılacaktır (Kontrol Merkezi sunucusunda değil).
NOT: Metrik bilgilerini görüntülemek için Kontrol Merkezi'nde en az bir monitörün çalıştığından emin olun.
Bağlantıyı harici bir istemci olarak doğrulamak ve doğrulamak için, "Akış API'sinin Kontrol Merkezinde Çalıştığının Doğrulanması" sayfa 4 bölümünde kurulan kafkacat yardımcı programını kullanmak mümkündür.
Aşağıdaki adımları uygulayın:
NOT: Aşağıda CLIENT_USER, daha önce belirtilen kullanıcıdır. file Kontrol Merkezinde /etc/kafka/server.properties: yani user_client ve orada ayarlanan şifre.
İstemcide sunucu tarafı SSL sertifikasını imzalamak için kullanılan CA kök sertifikası bulunmalıdır.
Bir tane oluştur file aşağıdaki içeriğe sahip client.properties:
- güvenlik.protocol=SASL_SSL
- ssl.ca.location={PATH_TO_CA_CERT}
- sasl.mechanisms=DÜZ
- sasl.username={CLIENT_USER}
- sasl.password={CLIENT_PASSWORD}
Neresi
- {PATH_TO_CA_CERT}, Kafka aracısı tarafından kullanılan CA kök sertifikasının konumudur
- {CLIENT_USER} ve {CLIENT_PASSWORD}, istemcinin kullanıcı kimlik bilgileridir.
kafkacat tarafından tüketilen mesajı görmek için aşağıdaki komutu çalıştırın:
- dışa aktar KAFKA_FQDN=
- METRICS_TOPIC=paa.public.accounts'u dışa aktarın. .metrikler
- kafkacat -b ${KAFKA_FQDN}:9093 -F istemci.özellikler -t ${METRICS_TOPIC} -C -e
{METRICS_TOPIC}, "paa.public" önekiyle Kafka konusunun adıdır.
NOT: Kafkacat'ın eski sürümleri, istemci ayarlarını bir bilgisayardan okumak için -F seçeneğini sağlamaz. file. Böyle bir sürüm kullanıyorsanız, aşağıda gösterilen ayarların aynısını komut satırından sağlamalısınız.
kafkacat -b ${KAFKA_FQDN}:9093 \
- X güvenlik.protocol=SASL_SSL \
- X ssl.ca.location={PATH_TO_CA_CERT} \
- X sasl.mekanizmaları=DÜZ \
- X sasl.username={CLIENT_USER} \
- X sasl.password={CLIENT_PASSWORD} \
- t ${METRICS_TOPIC} -C -e
Bağlantıda hata ayıklamak için -d seçeneğini kullanabilirsiniz:
Tüketici iletişiminde hata ayıklama
kafkacat -d tüketici -b ${KAFKA_FQDN}:9093 -F client.properties -t ${METRICS_TOPIC} -C -e
# Komisyoncu iletişiminde hata ayıklama
kafkacat -d aracı -b ${KAFKA_FQDN}:9093 -F istemci.özellikler -t ${METRICS_TOPIC} -C -e
Özellikler client.properties'tekilerden farklı olabileceğinden, kullanılan Kafka istemci kitaplığının belgelerine başvurduğunuzdan emin olun.
Mesaj Biçimi
Metrikler ve meta veri konuları için kullanılan mesajlar, Protokol arabellekleri (protobuf) biçiminde serileştirilir (bkz. geliştiriciler.google.com/protocol-buffers). Bu mesajların şemaları aşağıdaki formata uygundur:
Metrik Protobuf Şeması
- sözdizimi = “proto3”;
- “google/protobuf/timest'i içe aktaramp.proto";
- paa.streamingapi paketi;
- seçenek go_package = “.;paa_streamingapi”;
- mesaj Metrikler {
- google.protobuf.Timestamp zamanamp = 1;
- harita değerler = 2;
- int32 akış_id = 3;
- }
- /**
- * Bir metrik değer bir tamsayı veya kayan noktalı sayı olabilir.
- */
- mesaj MetrikDeğeri {
- türden biri {
- int64 int_val = 1;
- float float_val = 2;
- }
- }
Meta Veri Protobuf Şeması
- sözdizimi = “proto3”;
- paa.streamingapi paketi;
- seçenek go_package = “.;paa_streamingapi”;
- mesaj Meta Verileri {
- int32 akış_id = 1;
- string akış_adı = 2;
- harita tags = 13;
- }
Eski Müşteriamples
NOT: Bu komutların harici bir istemcide çalıştırılması amaçlanmıştır, örneğinampDizüstü bilgisayarınızı veya benzerini dosyalayın ve Kontrol Merkezi'nde değil.
NOT: Ölçüm bilgilerinin görüntülenmesi için Kontrol Merkezinde en az bir monitörün çalıştığından emin olun.
Kontrol Merkezi tarball'ı paa-streaming-api-client-ex arşivini içeriramples.tar.gz (müşteri-eskiampeski içeren les)ampAkış API'sinin nasıl kullanılacağını gösteren Python betiği.
Client Ex'i Kurma ve Yapılandırmaamples
Eski müşteriyi bulursunampParagon Active Assurance Control Center klasöründeki dosyalar:
- dışa aktarma CC_VERSION=4.1.0
- cd ./paa-control-center_${CC_VERSION}
- ls paa-streaming-api-client-exampdaha az*
client-ex'i yüklemek içinampharici istemci bilgisayarınızdaki dosyalar için aşağıdakileri yapın:
- # Eski istemcinin içeriğini çıkarmak için dizin oluşturunamples tarball
- mkdir paa-streaming-api-client-examples
- # Eski istemcinin içeriğini çıkarınamples tarball
- tar xzf paa-streaming-api-client-examples.tar.gz -C paa-streaming-api-client-examples
- # Yeni oluşturulan dizine git
- cd paa-akış-api-istemci-examples
eski müşteriamples, Docker'ın çalışmasını gerektirir. Docker için indirmeler ve kurulum talimatları şu adreste bulunabilir: https://docs.docker.com/engine/install.
Client Ex'i Kullanmaamples
eski müşteriamples araçları, ex oluşturmak için temel veya gelişmiş modda çalışabilirampdeğişen karmaşıklıkta dosyalar. Her iki durumda da, ex'i çalıştırmak da mümkündür.ampkonfigürasyonlu dosyalar file istemci tarafının daha fazla özelleştirilmesi için ek özellikler içerir.
Temel Mod
Temel modda, metrikler ve bunların meta verileri ayrı ayrı yayınlanır. Bu amaçla istemci, harici erişime açık olan her Kafka konusunu dinler ve alınan mesajları basitçe konsola yazdırır.
Temel eski yürütmeyi başlatmak içinamples, koş:
- build.sh run-basic –kafka-brokers localhost:9092 –account ACCOUNT_SHORTNAME
ACCOUNT_SHORTNAME, metrikleri almak istediğiniz hesabın kısa adıdır.
Eski yürütmeyi sonlandırmak içinample, Ctrl + C tuşlarına basın. (İstemci bir zaman aşımı olayını beklediği için yürütmenin durmasından önce biraz gecikme olabilir.)
Gelişmiş Mod
NOT: Metrikler yalnızca Denetim Merkezi'nde çalışan HTTP monitörleri için görüntülenir.
Gelişmiş modda yürütme, ölçümler ve meta veri mesajları arasındaki korelasyonu gösterir. Bu
karşılık gelen meta veri mesajına atıfta bulunan bir akış kimliği alanının her metrik mesajında bulunması sayesinde mümkündür.
Gelişmiş ex'i çalıştırmak içinamples, koş:
- build.sh run-advanced –kafka-brokers localhost:9092 –account ACCOUNT_SHORTNAME
ACCOUNT_SHORTNAME, metrikleri almak istediğiniz hesabın kısa adıdır.
Eski yürütmeyi sonlandırmak içinample, Ctrl + C tuşlarına basın. (İstemci bir zaman aşımı olayını beklediği için yürütmenin durmasından önce biraz gecikme olabilir.)
Ek Ayarlar
Ex'i çalıştırmak mümkündüramp–config- kullanarak istemcinin ek yapılandırmasına sahip dosyalarfile seçeneği ve ardından bir file anahtar=değer biçimindeki özellikleri içeren ad.
- build.sh çalıştırma-gelişmiş \
- –kafka-brokers localhost:9092 \
- –hesap ACCOUNT_SHORTNAME \
- –yapılandırma-file client_config.properties
NOT: Tüm fileYukarıdaki komutta başvurulan s geçerli dizinde bulunmalı ve yalnızca göreli yollar kullanılarak başvurulmalıdır. Bu hem –config- için geçerlidirfile argüman ve yapılandırmadaki tüm girişlere file tarif eden file Konumlar.
Harici İstemci Kimlik Doğrulamasını Doğrulama
client-ex kullanarak Kontrol Merkezi dışından istemci kimlik doğrulamasını doğrulamak içinamples, aşağıdaki adımları gerçekleştirin:
Paragon Active Assurance Control Center klasöründen paa-streaming-api-client-ex'e geçinampdosya klasörü:
cd paa-akış-api-istemci-examples
- CA kök sertifikası ca-cert'ini geçerli dizine kopyalayın.
- Bir client.properties oluşturun file Aşağıdaki içerikle:
Security.protocol=SASL_SSL ssl.ca.location=ca-cert
sasl.mechanism=DÜZ
sasl.username={CLIENT_USER}
sasl.password={CLIENT_PASSWORD}
{CLIENT_USER} ve {CLIENT_PASSWORD}, istemci için kullanıcı kimlik bilgileridir.
Temel ex'i çalıştırampŞunlar:
- dışa aktar KAFKA_FQDN=
- build.sh run-basic –kafka-brokers ${KAFKA_FQDN}:9093 \
- –hesap ACCOUNT_SHORTNAME
- –yapılandırma-file istemci özellikleri
ACCOUNT_SHORTNAME, metrikleri almak istediğiniz hesabın kısa adıdır.
Gelişmiş eski çalıştırampŞunlar:
- dışa aktar KAFKA_FQDN=
- build.sh run-advanced –kafka-brokers ${KAFKA_FQDN}:9093 \
- –hesap ACCOUNT_SHORTNAME
- –yapılandırma-file istemci özellikleri
Ek
Bu ekte, aşağıdakilerin nasıl oluşturulacağını açıklıyoruz:
- bir anahtar deposu file Kafka broker SSL sertifikasını saklamak için
- bir emanetçi file Kafka komisyoncu sertifikasını imzalamak için kullanılan Sertifika Yetkilisi (CA) kök sertifikasını depolamak için.
Kafka Broker Sertifikası Oluşturma
Gerçek Sertifika Yetkilisi Kullanarak Sertifika Oluşturma (Önerilen)
Güvenilir bir CA'dan gerçek bir SSL sertifikası almanız önerilir.
Bir CA'ya karar verdikten sonra, CA kök sertifikası ca-cert'ini kopyalayın file aşağıda gösterildiği gibi kendi yolunuza:
- CA_PATH=~/my-ca'yı dışa aktar
- mkdir ${CA_PATH}
- cp ca-cert ${CA_PATH}
Kendi Sertifika Yetkilinizi Oluşturun
NOT: Normalde sertifikanızı gerçek bir Sertifika Yetkilisine imzalatmalısınız; önceki alt bölüme bakın. Aşağıdakiler sadece bir eskiampley.
Burada kendi Sertifika Yetkilisi (CA) kök sertifikamızı oluşturuyoruz file 999 gün geçerlidir (üretimde önerilmez):
- # CA'yı saklamak için bir dizin oluşturun
- CA_PATH=~/my-ca'yı dışa aktar
- mkdir ${CA_PATH}
- # CA sertifikasını oluşturun
- openssl req -new -x509 -keyout ${CA_PATH}/ca-key -out ${CA_PATH}/ca-cert -days 999
İstemci Truststore'u Oluşturma
Artık bir güvenilir mağaza oluşturabilirsiniz file bu, yukarıda oluşturulan ca-cert'i içerir. Bu file Akış API'sine erişecek olan Kafka istemcisi tarafından ihtiyaç duyulacaktır:
- keytool -keystore kafka.client.truststore.jks \
- diğer adı CARoot \
- ithalat sertifikası -file ${CA_PATH}/ca-cert
Artık CA sertifikası güvenilir depoda olduğuna göre, istemci onunla imzalanan tüm sertifikalara güvenecektir.
kopyalamalısın file kafka.client.truststore.jks'i istemci bilgisayarınızda bilinen bir konuma kopyalayın ve ayarlarda bu konumu gösterin.
Kafka Aracısı için Anahtar Deposu Oluşturma
Kafka broker SSL sertifikasını ve ardından kafka.server.keystore.jks anahtar deposunu oluşturmak için aşağıdakileri yapın:
SSL Sertifikası Oluşturma
Aşağıda 999, anahtar deposunun geçerlilik gün sayısıdır ve FQDN, istemcinin tam etki alanı adıdır (düğümün genel ana bilgisayar adı).
NOT: FQDN'nin, Kafka istemcisinin Kontrol Merkezine bağlanmak için kullanacağı ana bilgisayar adıyla tam olarak eşleşmesi önemlidir.
- sudo mkdir -p /var/ssl/özel
- sudo chown -R $KULLANICI: /var/ssl/özel
- cd /var/ssl/özel
- FQDN'yi dışa aktar= keytool -anahtar deposu kafka.server.keystore.jks \
- – takma ad sunucusu \
- – geçerlilik 999 \
- – genkey -keyalg RSA -ext SAN=dns:${FQDN}
Bir sertifika imzalama isteği oluşturun ve bunu file adlı sertifika sunucusu isteği:
- keytool -anahtar deposu kafka.server.keystore.jks \
- – takma ad sunucusu \
- – sertifika \
- – file sertifika-sunucu-isteği
şimdi göndermelisin file Gerçek bir sertifika kullanıyorsanız Sertifika Yetkilinize (CA) cert-server-request gönderin. Daha sonra imzalanmış sertifikayı iade edeceklerdir. Buna aşağıda sertifika-sunucu imzalı olarak değineceğiz.
Kendiliğinden Oluşturulan bir CA Sertifikasını Kullanarak SSL Sertifikasını İmzalama
NOT: Yine, bir üretim sisteminde kendi CA'nızı kullanmanız önerilmez.
CA'yı kullanarak sertifikayı şu şekilde imzalayın: file cert-server-request, imzalı sertifikayı üreten cert-server-signed. Aşağıya bakınız; ca-password, CA sertifikası oluşturulurken ayarlanan paroladır.
- cd /var/ssl/private openssl x509 -req \
- – CA ${CA_PATH}/ca-cert \
- – CAkey ${CA_PATH}/ca-anahtarı \
- – sertifika sunucusu isteğinde \
- – sertifika-sunucu imzalı \
- – gün 999 -CAcreateserial \
- – geçiş şifresi:{ca-password}
İmzalı Sertifikayı Anahtar Deposuna Aktarma
ca-cert kök sertifikasını anahtar deposuna aktarın:
- keytool -anahtar deposu kafka.server.keystore.jks \
- – diğer adı ca-cert \
- - içe aktarmak \
- – file ${CA_PATH}/ca-cert
Cert-server-signed olarak anılan imzalı sertifikayı içe aktarın:
- keytool -anahtar deposu kafka.server.keystore.jks \
- – takma ad sunucusu \
- - içe aktarmak \
- – file sertifika sunucusu imzalı
The file kafka.server.keystore.jks, Control Center sunucusunda bilinen bir konuma kopyalanmalı ve ardından /etc/kafka/server.properties içinde atıfta bulunulmalıdır.
Akış API'sini Kullanma
BU BÖLÜMDE
- Genel | 20
- Kafka Konu Adları | 21
- ExampAkış API'sini Kullanma Dosyaları | 21
Genel
Akış API'si hem test hem de izleme verilerini getirir. Bu kategorilerden birini ayırmak mümkün değil.
Akış API'si, Ethernet hizmeti etkinleştirme testleri ve şeffaflık testleri gibi komut dosyası tabanlı testlerden (Kontrol Merkezi GUI'sinde bir yapboz parçası yerine bir dikdörtgenle temsil edilenler) veri getirmez.
Kafka Konu Adları
Akış API'sine ilişkin Kafka konu adları aşağıdaki gibidir; burada %s, Kontrol Merkezi hesabının kısa adıdır (hesap oluşturulurken gösterilir):
- sabit (
- ihracatçıAdı = “kafka”
- metadataTopicTpl = “paa.public.accounts.%s.metadata” metricsTopicTpl = “paa.public.accounts.%s.metrics”)
ExampAkış API'sini Kullanma dosyaları
Eski sevgiliampaşağıdaki dosyalar tarball paa-streaming-api-client-ex içinde bulunuramples.tar.gz, Kontrol Merkezi tarball'ında bulunur.
İlk olarak, temel bir eski varampMetriklerin ve meta verilerinin ayrı ayrı nasıl aktarıldığını ve alınan mesajların konsola nasıl kolayca yazdırıldığını gösteren dosya. Aşağıdaki gibi çalıştırabilirsiniz:
- sudo ./build.sh run-basic –kafka-brokers localhost:9092 –account ACCOUNT_SHORTNAME
Ayrıca daha gelişmiş bir eski varampMetriklerin ve meta veri mesajlarının ilişkilendirildiği dosya. Çalıştırmak için bu komutu kullanın:
- sudo ./build.sh run-advanced –kafka-brokers localhost:9092 –account ACCOUNT_SHORTNAME
Yukarıdaki gibi Docker komutlarını çalıştırmak için sudo kullanmanız gerekir. İsteğe bağlı olarak Docker komutlarını sudo olmadan çalıştırabilmek için Linux kurulum sonrası adımlarını takip edebilirsiniz. Ayrıntılar için şu adrese gidin: docs.docker.com/engine/install/linux-postinstall.
Juniper Networks, Juniper Networks logosu, Juniper ve Junos, Juniper Networks, Inc.'in Amerika Birleşik Devletleri ve diğer ülkelerdeki tescilli ticari markalarıdır. Diğer tüm ticari markalar, hizmet markaları, tescilli markalar veya tescilli hizmet markaları ilgili sahiplerinin mülkiyetindedir. Juniper Networks, bu belgedeki herhangi bir yanlışlıktan sorumlu değildir. Juniper Networks, bu yayını önceden haber vermeden değiştirme, düzenleme, aktarma veya başka şekilde revize etme hakkını saklı tutar. Telif Hakkı © 2023 Juniper Networks, Inc. Tüm hakları saklıdır.
Belgeler / Kaynaklar
![]() |
Juniper AĞLARI Akış API Yazılımı [pdf] Kullanıcı Kılavuzu Akış API Yazılımı, API Yazılımı, Yazılım |