កម្មវិធី Juniper NETWORKS Streaming API
ព័ត៌មានអំពីផលិតផល
លក្ខណៈបច្ចេកទេស
- ឈ្មោះផលិតផល៖ Paragon Active Assurance
- កំណែ៖ 4.1
- កាលបរិច្ឆេទចេញផ្សាយ៖ 2023-03-15
សេចក្តីផ្តើម៖
មគ្គុទ្ទេសក៍នេះផ្តល់ការណែនាំអំពីរបៀបទាញយកទិន្នន័យពី Paragon Active Assurance ដោយប្រើ API ស្ទ្រីមរបស់ផលិតផល។ ម៉ាស៊ីនភ្ញៀវស្ទ្រីម និង API ត្រូវបានរួមបញ្ចូលនៅក្នុងការដំឡើង Paragon Active Assurance ប៉ុន្តែការកំណត់រចនាសម្ព័ន្ធមួយចំនួនត្រូវបានទាមទារមុនពេលប្រើ API ។ ដំណើរការកំណត់រចនាសម្ព័ន្ធត្រូវបានគ្របដណ្តប់នៅក្នុងផ្នែក "កំណត់រចនាសម្ព័ន្ធស្ទ្រីម API" ។
កំណត់រចនាសម្ព័ន្ធស្ទ្រីម API៖
ជំហានខាងក្រោមបង្ហាញពីដំណើរការដើម្បីកំណត់រចនាសម្ព័ន្ធការផ្សាយ API៖
ជាងview
Kafka គឺជាវេទិកាស្ទ្រីមព្រឹត្តិការណ៍ដែលត្រូវបានរចនាឡើងសម្រាប់ការចាប់យកពេលវេលាជាក់ស្តែង និងការផ្ទុកទិន្នន័យពីប្រភពផ្សេងៗ។ វាអនុញ្ញាតឱ្យការគ្រប់គ្រងការផ្សាយព្រឹត្តិការណ៍ក្នុងលក្ខណៈចែកចាយ ធ្វើមាត្រដ្ឋាន អត់ឱនកំហុស និងសុវត្ថិភាព។ ការណែនាំនេះផ្តោតលើការកំណត់ Kafka ដើម្បីប្រើប្រាស់មុខងារ Streaming API នៅក្នុង Paragon Active Assurance Control Center។
វាក្យសព្ទ
ស្ទ្រីម API អនុញ្ញាតឱ្យអតិថិជនខាងក្រៅទាញយកព័ត៌មានម៉ែត្រពី Kafka ។ រង្វាស់ដែលប្រមូលបានដោយភ្នាក់ងារសាកល្បងកំឡុងពេលធ្វើតេស្ត ឬកិច្ចការត្រួតពិនិត្យត្រូវបានបញ្ជូនទៅសេវាកម្មស្ទ្រីម។ បន្ទាប់ពីដំណើរការ សេវាកម្មស្ទ្រីមបោះផ្សាយម៉ែត្រទាំងនេះនៅលើ Kafka រួមជាមួយនឹងទិន្នន័យមេតាបន្ថែម។
ស្ទ្រីម API ប្រើប្រាស់ប្រធានបទ Kafka ដើម្បីរៀបចំ និងរក្សាទុកម៉ែត្រ និងទិន្នន័យមេតា។ ប្រធានបទ Kafka អាចត្រូវបានបង្កើត និងគ្រប់គ្រងដោយយោងទៅតាមតម្រូវការជាក់លាក់។
បើកដំណើរការស្ទ្រីម API
ដើម្បីបើកដំណើរការ Streaming API សូមអនុវត្តតាមជំហានទាំងនេះ៖
- ដំណើរការពាក្យបញ្ជាខាងក្រោមនៅលើម៉ាស៊ីនមេមជ្ឈមណ្ឌលបញ្ជាដោយប្រើ sudo៖
KAFKA_METRICS_ENABLED = សេវា sudo ncc ពិត បើកការវាស់វែង timescaledb metrics sudo ncc services start timescaledb metrics sudo ncc services restart
ការផ្ទៀងផ្ទាត់ថាស្ទ្រីម API ដំណើរការនៅក្នុងមជ្ឈមណ្ឌលបញ្ជា៖
ដើម្បីផ្ទៀងផ្ទាត់ថាអ្នកកំពុងទទួលបានរង្វាស់លើប្រធានបទ Kafka ត្រឹមត្រូវ៖
- ដំឡើងឧបករណ៍ប្រើប្រាស់ kafkacat ដោយប្រើពាក្យបញ្ជាដូចខាងក្រោមៈ
sudo apt-get ធ្វើបច្ចុប្បន្នភាព
sudo apt-get ដំឡើង kafkacat
- ជំនួស “myaccount” ជាមួយឈ្មោះខ្លីនៃគណនីរបស់អ្នកនៅក្នុងប្រអប់
មជ្ឈមណ្ឌលត្រួតពិនិត្យ URL:
នាំចេញ METRICS_TOPIC=paa.public.accounts.myaccount.metrics
នាំចេញ METADATA_TOPIC=paa.public.accounts.myaccount.metadata
- រត់ពាក្យបញ្ជាខាងក្រោមទៅ view ម៉ែត្រ៖
kafkacat -b ${KAFKA_FQDN}:9092 -t ${METRICS_TOPIC} -C -e
ចំណាំ៖ ពាក្យបញ្ជាខាងលើនឹងបង្ហាញម៉ែត្រ។ - ទៅ view ទិន្នន័យមេតា ដំណើរការពាក្យបញ្ជាខាងក្រោម៖
kafkacat -b ${KAFKA_FQDN}:9092 -t ${METADATA_TOPIC} -C -e
ចំណាំ៖ ពាក្យបញ្ជាខាងលើនឹងបង្ហាញទិន្នន័យមេតា ប៉ុន្តែវានឹងមិនធ្វើបច្ចុប្បន្នភាពញឹកញាប់ទេ។
អតិថិជន Examples
សម្រាប់អតិថិជន examples និងព័ត៌មានបន្ថែម សូមមើលទំព័រ 14 នៃសៀវភៅណែនាំអ្នកប្រើប្រាស់។
FAQ (សំណួរដែលសួរញឹកញាប់)
- សំណួរ៖ តើ Paragon Active Assurance ជាអ្វី?
A: Paragon Active Assurance គឺជាផលិតផលដែលផ្តល់នូវការត្រួតពិនិត្យ និងតេស្តសមត្ថភាព។ - សំណួរ៖ តើស្ទ្រីម API ជាអ្វី?
ចម្លើយ៖ ស្ទ្រីម API គឺជាលក្ខណៈពិសេសមួយនៅក្នុង Paragon Active Assurance ដែលអនុញ្ញាតឱ្យអតិថិជនខាងក្រៅទាញយកព័ត៌មានម៉ែត្រពី Kafka ។ - សំណួរ៖ តើខ្ញុំត្រូវបើកដំណើរការ API ស្ទ្រីមដោយរបៀបណា?
ចម្លើយ៖ ដើម្បីបើកដំណើរការស្ទ្រីម API សូមអនុវត្តតាមជំហានដែលបានរៀបរាប់នៅក្នុងផ្នែក "បើកដំណើរការស្ទ្រីម API" នៃសៀវភៅណែនាំអ្នកប្រើប្រាស់។ - សំណួរ៖ តើខ្ញុំអាចផ្ទៀងផ្ទាត់ថាស្ទ្រីម API ដំណើរការដោយរបៀបណា?
ចម្លើយ៖ សូមមើលផ្នែក "ផ្ទៀងផ្ទាត់ថាស្ទ្រីម API ដំណើរការនៅក្នុងមជ្ឈមណ្ឌលបញ្ជា" សម្រាប់ការណែនាំអំពីរបៀបផ្ទៀងផ្ទាត់មុខងាររបស់ស្ទ្រីម API ។
សេចក្តីផ្តើម
មគ្គុទ្ទេសក៍នេះពិពណ៌នាអំពីរបៀបទាញយកទិន្នន័យពី Paragon Active Assurance តាមរយៈ API ស្ទ្រីមរបស់ផលិតផល។
API ក៏ដូចជាកម្មវិធីចាក់ផ្សាយត្រូវបានរួមបញ្ចូលនៅក្នុងការដំឡើង Paragon Active Assurance។ ទោះយ៉ាងណាក៏ដោយ ការកំណត់រចនាសម្ព័ន្ធបន្តិចគឺចាំបាច់ មុនពេលអ្នកអាចប្រើ API ។ នេះត្រូវបានគ្របដណ្តប់នៅក្នុង "ការកំណត់រចនាសម្ព័ន្ធស្ទ្រីម API" នៅទំព័រ 1 ជំពូក។
ជាងview
ជំពូកនេះពិពណ៌នាអំពីរបៀបកំណត់រចនាសម្ព័ន្ធស្ទ្រីម API ដើម្បីអនុញ្ញាតឱ្យជាវសារម៉ែត្រតាមរយៈ Kafka ។
pr
ខាងក្រោមនេះយើងនឹងឆ្លងកាត់៖
- របៀបបើកស្ទ្រីម API
- របៀបកំណត់ Kafka ដើម្បីស្តាប់អតិថិជនខាងក្រៅ
- របៀបកំណត់ Kafka ដើម្បីប្រើ ACLs និងដំឡើងការអ៊ិនគ្រីប SSL សម្រាប់អតិថិជនដែលបាននិយាយ
តើ Kafka ជាអ្វី?
Kafka គឺជាវេទិកាស្ទ្រីមព្រឹត្តិការណ៍ដែលអនុញ្ញាតឱ្យចាប់យកទិន្នន័យដែលបានផ្ញើពីប្រភពព្រឹត្តិការណ៍ផ្សេងៗ (ឧបករណ៍ចាប់សញ្ញា មូលដ្ឋានទិន្នន័យ ឧបករណ៍ចល័ត) ក្នុងទម្រង់នៃព្រឹត្តិការណ៍ស្ទ្រីម ក៏ដូចជាការរក្សាទុកជាប់លាប់នៃស្ទ្រីមព្រឹត្តិការណ៍ទាំងនេះសម្រាប់ការទាញយក និងរៀបចំនៅពេលក្រោយ។
ជាមួយ Kafka វាអាចធ្វើទៅបានដើម្បីគ្រប់គ្រងការផ្សាយព្រឹត្តិការណ៍ពីចុងដល់ចប់ក្នុងលក្ខណៈចែកចាយ ដែលអាចធ្វើមាត្រដ្ឋានបានខ្ពស់ បត់បែន អត់ធ្មត់ និងសុវត្ថិភាព។
ចំណាំ៖ Kafka អាចត្រូវបានកំណត់រចនាសម្ព័ន្ធក្នុងវិធីផ្សេងគ្នាជាច្រើននិងត្រូវបានរចនាឡើងសម្រាប់ការធ្វើមាត្រដ្ឋាននិងប្រព័ន្ធដែលមិនប្រើដដែល។ ឯកសារនេះផ្តោតតែលើរបៀបកំណត់រចនាសម្ព័ន្ធវាដើម្បីប្រើប្រាស់មុខងារ Streaming API ដែលបានរកឃើញនៅក្នុង Paragon Active Assurance Control Center។ សម្រាប់ការដំឡើងកម្រិតខ្ពស់បន្ថែមទៀត យើងយោងទៅលើឯកសារផ្លូវការរបស់ Kafka៖ kafka.apache.org/26/documentation.html ។
វាក្យសព្ទ
- Kafka: វេទិកាស្ទ្រីមព្រឹត្តិការណ៍។
- ប្រធានបទ Kafka៖ ការប្រមូលព្រឹត្តិការណ៍។
- អតិថិជន/អ្នកប្រើប្រាស់ Kafka៖ ធាតុផ្សំដែលទទួលខុសត្រូវចំពោះការទាញយកព្រឹត្តិការណ៍ដែលបានរក្សាទុកនៅក្នុងប្រធានបទ Kafka។
- ឈ្មួញកណ្តាល Kafka៖ ម៉ាស៊ីនមេស្រទាប់ផ្ទុកនៃចង្កោម Kafka ។
- SSL/TLS៖ SSL គឺជាពិធីការសុវត្ថិភាពដែលត្រូវបានបង្កើតឡើងសម្រាប់បញ្ជូនព័ត៌មានប្រកបដោយសុវត្ថិភាពតាមអ៊ីនធឺណិត។ TLS គឺជាអ្នកស្នងតំណែងរបស់ SSL ដែលបានណែនាំក្នុងឆ្នាំ 1999 ។
- SASL៖ ក្របខ័ណ្ឌដែលផ្តល់យន្តការសម្រាប់ការផ្ទៀងផ្ទាត់អ្នកប្រើប្រាស់ ការត្រួតពិនិត្យភាពត្រឹមត្រូវនៃទិន្នន័យ និងការអ៊ិនគ្រីប។
- អ្នកជាវ API ស្ទ្រីម៖ ធាតុផ្សំដែលទទួលខុសត្រូវចំពោះការទាញយកព្រឹត្តិការណ៍ដែលបានរក្សាទុកនៅក្នុងប្រធានបទដែលបានកំណត់នៅក្នុង Paragon Active Assurance និងមានន័យថាសម្រាប់ការចូលប្រើខាងក្រៅ។
- អាជ្ញាធរវិញ្ញាបនបត្រ៖ អង្គភាពដែលអាចទុកចិត្តបានដែលចេញ និងដកហូតវិញ្ញាបនបត្រសោសាធារណៈ។
- វិញ្ញាបនបត្ររបស់អាជ្ញាធរវិញ្ញាបនប័ត្រ៖ វិញ្ញាបនបត្រសោសាធារណៈដែលកំណត់អត្តសញ្ញាណអាជ្ញាធរវិញ្ញាបនបត្រ។
របៀបដែលស្ទ្រីម API ដំណើរការ
ដូចដែលបានបញ្ជាក់ពីមុន ស្ទ្រីម API អនុញ្ញាតឱ្យអតិថិជនខាងក្រៅទាញយកព័ត៌មានអំពីម៉ែត្រពី Kafka ។
រាល់ការវាស់វែងដែលប្រមូលបានដោយភ្នាក់ងារសាកល្បង កំឡុងពេលធ្វើតេស្ត ឬត្រួតពិនិត្យភារកិច្ចត្រូវបានបញ្ជូនទៅសេវាកម្មស្ទ្រីម។ បន្ទាប់ពីដំណាក់កាលដំណើរការ សេវាកម្មស្ទ្រីមបោះពុម្ពផ្សាយម៉ែត្រទាំងនោះនៅលើ Kafka រួមជាមួយនឹងទិន្នន័យមេតាបន្ថែម។
ប្រធានបទ Kafka
Kafka មានគំនិតនៃប្រធានបទដែលទិន្នន័យទាំងអស់ត្រូវបានបោះពុម្ព។ នៅក្នុង Paragon Active Assurance មានប្រធានបទ Kafka ជាច្រើនដែលមាន។ ទោះយ៉ាងណាក៏ដោយ មានតែផ្នែករងនៃវត្ថុទាំងនេះប៉ុណ្ណោះដែលមានន័យសម្រាប់ការចូលប្រើខាងក្រៅ។
គណនី Paragon Active Assurance នីមួយៗនៅក្នុង Control Center មានប្រធានបទពីរ។ ខាងក្រោម ACCOUNT គឺជាឈ្មោះខ្លីនៃគណនី៖
- paa.public.accounts.{ACCOUNT}.metrics
- សារម៉ែត្រទាំងអស់សម្រាប់គណនីដែលបានផ្តល់ឱ្យត្រូវបានបោះពុម្ពផ្សាយចំពោះប្រធានបទនេះ។
- ចំនួនដ៏ធំនៃទិន្នន័យ
- ប្រេកង់អាប់ដេតខ្ពស់។
- paa.public.accounts.{ACCOUNT}.ទិន្នន័យមេតា
- មានទិន្នន័យមេតាដែលទាក់ទងនឹងទិន្នន័យម៉ែត្រ ឧទាហរណ៍ample តេស្ត ម៉ូនីទ័រ ឬភ្នាក់ងារតេស្តដែលភ្ជាប់ជាមួយម៉ែត្រ
- ចំនួនតូចនៃទិន្នន័យ
- ប្រេកង់អាប់ដេតទាប
បើកដំណើរការស្ទ្រីម API
ចំណាំ៖ ការណែនាំទាំងនេះគឺត្រូវដំណើរការនៅលើម៉ាស៊ីនមេរបស់មជ្ឈមណ្ឌលបញ្ជាដោយប្រើ sudo ។
ដោយសារស្ទ្រីម API បន្ថែមផ្នែកខ្លះទៅមជ្ឈមណ្ឌលបញ្ជា វាមិនត្រូវបានបើកតាមលំនាំដើមទេ។ ដើម្បីបើក API ដំបូងយើងត្រូវបើកការបោះពុម្ពម៉ែត្រទៅ Kafka នៅក្នុងការកំណត់សំខាន់ file:
KAFKA_METRICS_ENABLED = ពិត
ព្រមាន៖ ការបើកមុខងារនេះអាចប៉ះពាល់ដល់ដំណើរការរបស់មជ្ឈមណ្ឌលបញ្ជា។ ត្រូវប្រាកដថាអ្នកបានកំណត់ទំហំឧទាហរណ៍របស់អ្នកស្របតាម។
បន្ទាប់ ដើម្បីបើកការបញ្ជូនបន្តរង្វាស់ទាំងនេះទៅកាន់ប្រធានបទ Kafka ត្រឹមត្រូវ៖
streaming-api៖ ពិត
ដើម្បីបើក និងចាប់ផ្តើមសេវាកម្មស្ទ្រីម API សូមដំណើរការ៖
- សេវាកម្ម sudo ncc បើកការវាស់វែង timescaledb
- សេវាកម្ម sudo ncc ចាប់ផ្តើមការវាស់វែង timescaledb
ជាចុងក្រោយ ចាប់ផ្តើមសេវាកម្មឡើងវិញ៖
- សេវាកម្ម sudo ncc ចាប់ផ្តើមឡើងវិញ
ការផ្ទៀងផ្ទាត់ថាស្ទ្រីម API ដំណើរការនៅក្នុងមជ្ឈមណ្ឌលបញ្ជា
ចំណាំ៖ ការណែនាំទាំងនេះគឺត្រូវដំណើរការនៅលើម៉ាស៊ីនមេរបស់មជ្ឈមណ្ឌលបញ្ជា។
ឥឡូវនេះអ្នកអាចផ្ទៀងផ្ទាត់ថាអ្នកកំពុងទទួលបានម៉ែត្រនៅលើប្រធានបទ Kafka ត្រឹមត្រូវ។ ដើម្បីធ្វើដូច្នេះ សូមដំឡើងឧបករណ៍ប្រើប្រាស់ kafkacat៖
- sudo apt-get ធ្វើបច្ចុប្បន្នភាព
- sudo apt-get ដំឡើង kafkacat
ប្រសិនបើអ្នកមានការសាកល្បង ឬម៉ូនីទ័រដែលកំពុងដំណើរការនៅក្នុងមជ្ឈមណ្ឌលបញ្ជា អ្នកគួរតែអាចប្រើ kafkacat ដើម្បីទទួលបានម៉ែត្រ និងទិន្នន័យមេតាលើប្រធានបទទាំងនេះ។
ជំនួសគណនីរបស់ខ្ញុំដោយឈ្មោះខ្លីនៃគណនីរបស់អ្នក (នេះជាអ្វីដែលអ្នកឃើញនៅក្នុងមជ្ឈមណ្ឌលបញ្ជារបស់អ្នក។ URL):
- នាំចេញ METRICS_TOPIC=paa.public.accounts.myaccount.metrics
- នាំចេញ METADATA_TOPIC=paa.public.accounts.myaccount.metadata
ឥឡូវនេះ អ្នកគួរតែឃើញម៉ែត្រដោយដំណើរការពាក្យបញ្ជានេះ៖
- kafkacat -b ${KAFKA_FQDN}:9092 -t ${METRICS_TOPIC} -C -e
ទៅ view ទិន្នន័យមេតា ដំណើរការពាក្យបញ្ជាខាងក្រោម (ចំណាំថាវានឹងមិនធ្វើបច្ចុប្បន្នភាពញឹកញាប់ទេ)៖
- kafkacat -b ${KAFKA_FQDN}:9092 -t ${METADATA_TOPIC} -C -e
ចំណាំ៖
kafkacat”អតីតអតិថិជនamples” នៅទំព័រ 14
វាផ្ទៀងផ្ទាត់ថាយើងមាន API ស្ទ្រីមដែលកំពុងដំណើរការពីក្នុងមជ្ឈមណ្ឌលបញ្ជា។ ទោះយ៉ាងណាក៏ដោយ ភាគច្រើនទំនងជាអ្នកចាប់អារម្មណ៍ក្នុងការចូលប្រើទិន្នន័យពីម៉ាស៊ីនភ្ញៀវខាងក្រៅជំនួសវិញ។ ផ្នែកបន្ទាប់ពិពណ៌នាអំពីរបៀបបើក Kafka សម្រាប់ការចូលប្រើខាងក្រៅ។
បើក Kafka សម្រាប់ម៉ាស៊ីនខាងក្រៅ
ចំណាំ៖ ការណែនាំទាំងនេះគឺត្រូវដំណើរការនៅលើម៉ាស៊ីនមេរបស់មជ្ឈមណ្ឌលបញ្ជា។
តាមលំនាំដើម Kafka ដែលដំណើរការនៅលើមជ្ឈមណ្ឌលបញ្ជាត្រូវបានកំណត់រចនាសម្ព័ន្ធដើម្បីស្តាប់តែនៅលើម៉ាស៊ីនមូលដ្ឋានសម្រាប់ការប្រើប្រាស់ផ្ទៃក្នុងប៉ុណ្ណោះ។ វាអាចធ្វើទៅបានដើម្បីបើក Kafka សម្រាប់អតិថិជនខាងក្រៅដោយការកែប្រែការកំណត់ Kafka ។
ការតភ្ជាប់ទៅ Kafka: ការព្រមាន
ប្រយ័ត្ន៖ សូមអានវាដោយយកចិត្តទុកដាក់ ព្រោះវាងាយស្រួលក្នុងការដោះស្រាយបញ្ហាទាក់ទងនឹង Kafka ប្រសិនបើអ្នកមិនទាន់យល់អំពីគោលគំនិតទាំងនេះ។
នៅក្នុងការរៀបចំមជ្ឈមណ្ឌលបញ្ជាដែលបានពិពណ៌នានៅក្នុងឯកសារនេះ មានតែឈ្មួញកណ្តាល Kafka តែមួយប៉ុណ្ណោះ។
ទោះជាយ៉ាងណាក៏ដោយ ចំណាំថាឈ្មួញកណ្តាល Kafka មានបំណងដំណើរការជាផ្នែកមួយនៃក្រុម Kafka ដែលអាចមានឈ្មួញកណ្តាល Kafka ជាច្រើន។
នៅពេលភ្ជាប់ទៅឈ្មួញកណ្តាល Kafka ការតភ្ជាប់ដំបូងត្រូវបានបង្កើតឡើងដោយអតិថិជន Kafka ។ ជុំវិញការតភ្ជាប់នេះ ឈ្មួញកណ្តាល Kafka នឹងត្រឡប់បញ្ជីឈ្មោះ "អ្នកស្តាប់ដែលបានផ្សព្វផ្សាយ" ដែលជាបញ្ជីនៃឈ្មួញកណ្តាល Kafka មួយ ឬច្រើន។
នៅពេលទទួលបានបញ្ជីនេះ អតិថិជន Kafka នឹងផ្តាច់ទំនាក់ទំនង បន្ទាប់មកភ្ជាប់ទៅអ្នកស្តាប់ដែលបានផ្សាយពាណិជ្ជកម្មទាំងនេះឡើងវិញ។ អ្នកស្តាប់ដែលបានផ្សាយពាណិជ្ជកម្មត្រូវតែមានឈ្មោះម៉ាស៊ីន ឬអាសយដ្ឋាន IP ដែលអាចចូលប្រើបានដោយម៉ាស៊ីនភ្ញៀវ Kafka បើមិនដូច្នោះទេ ម៉ាស៊ីនភ្ញៀវនឹងបរាជ័យក្នុងការតភ្ជាប់។
ប្រសិនបើការអ៊ិនគ្រីប SSL ត្រូវបានប្រើ ពាក់ព័ន្ធនឹងវិញ្ញាបនបត្រ SSL ដែលត្រូវបានចងភ្ជាប់ទៅនឹងឈ្មោះម៉ាស៊ីនជាក់លាក់មួយ វាកាន់តែសំខាន់ដែលម៉ាស៊ីនភ្ញៀវ Kafka ទទួលបានអាសយដ្ឋានត្រឹមត្រូវដើម្បីភ្ជាប់ទៅ ព្រោះបើមិនដូច្នេះទេ ការភ្ជាប់អាចត្រូវបានបដិសេធ។
សូមអានបន្ថែមអំពីអ្នកស្តាប់ Kafka នៅទីនេះ៖ www.confluent.io/blog/kafka-listeners-explained
ការអ៊ិនគ្រីប SSL/TLS
ដើម្បីប្រាកដថាមានតែអតិថិជនដែលជឿទុកចិត្តប៉ុណ្ណោះដែលត្រូវបានអនុញ្ញាតឱ្យចូលប្រើ Kafka និង Streaming API យើងត្រូវកំណត់រចនាសម្ព័ន្ធដូចខាងក្រោម៖
- ការផ្ទៀងផ្ទាត់ភាពត្រឹមត្រូវ៖ អតិថិជនត្រូវតែផ្តល់ឈ្មោះអ្នកប្រើប្រាស់ និងពាក្យសម្ងាត់តាមរយៈការតភ្ជាប់សុវត្ថិភាព SSL/TLS រវាងម៉ាស៊ីនភ្ញៀវ និង Kafka។
- ការអនុញ្ញាត៖ អតិថិជនដែលបានផ្ទៀងផ្ទាត់អាចអនុវត្តការងារដែលគ្រប់គ្រងដោយ ACLs ។
នេះគឺចប់ហើយ។view:
*) ការផ្ទៀងផ្ទាត់ឈ្មោះអ្នកប្រើ / ពាក្យសម្ងាត់បានធ្វើនៅលើឆានែលដែលបានអ៊ិនគ្រីប SSL
ដើម្បីយល់ច្បាស់អំពីរបៀបដែលការអ៊ិនគ្រីប SSL/TLS ដំណើរការសម្រាប់ Kafka សូមមើលឯកសារផ្លូវការ៖ docs.confluent.io/platform/current/kafka/encryption.html
វិញ្ញាបនបត្រ SSL/TLS បានបញ្ចប់view
ចំណាំ៖ នៅក្នុងផ្នែករងនេះ យើងនឹងប្រើវាក្យស័ព្ទដូចខាងក្រោមៈ
វិញ្ញាបនបត្រ៖ វិញ្ញាបនបត្រ SSL ដែលចុះហត្ថលេខាដោយអាជ្ញាធរវិញ្ញាបនប័ត្រ (CA)។ ឈ្មួញកណ្តាល Kafka នីមួយៗមានមួយ។
ឃ្លាំងសម្ងាត់៖ ឃ្លាំងសម្ងាត់ file ដែលរក្សាទុកវិញ្ញាបនបត្រ។ ឃ្លាំងសម្ងាត់ file មានសោឯកជននៃវិញ្ញាបនបត្រ; ដូច្នេះ ចាំបាច់ត្រូវរក្សាទុកដោយសុវត្ថិភាព។
ហាងទុកចិត្ត៖ ក file មានវិញ្ញាបនបត្រ CA ដែលអាចទុកចិត្តបាន។
ដើម្បីរៀបចំការផ្ទៀងផ្ទាត់រវាងម៉ាស៊ីនភ្ញៀវខាងក្រៅ និង Kafka ដែលដំណើរការនៅក្នុងមជ្ឈមណ្ឌលបញ្ជា ភាគីទាំងពីរត្រូវតែមានឃ្លាំងសម្ងាត់ដែលបានកំណត់ជាមួយនឹងវិញ្ញាបនបត្រដែលពាក់ព័ន្ធដែលបានចុះហត្ថលេខាដោយអាជ្ញាធរវិញ្ញាបនបត្រ (CA) រួមជាមួយនឹងវិញ្ញាបនបត្រឫសគល់ CA ។
បន្ថែមពីលើនេះ អតិថិជនក៏ត្រូវតែមាន truststore ដែលមានវិញ្ញាបនបត្រ root CA ផងដែរ។
វិញ្ញាបនបត្រឫសគល់ CA គឺជារឿងធម្មតាសម្រាប់ឈ្មួញកណ្តាល Kafka និងអតិថិជន Kafka ។
ការបង្កើតវិញ្ញាបនបត្រដែលត្រូវការ
នេះត្រូវបានរៀបរាប់នៅក្នុង “ឧបសម្ព័ន្ធ” នៅទំព័រ ១៧។
ការកំណត់រចនាសម្ព័ន្ធ Kafka Broker SSL/TLS នៅក្នុងមជ្ឈមណ្ឌលបញ្ជា
ចំណាំ៖ ការណែនាំទាំងនេះគឺត្រូវដំណើរការនៅលើម៉ាស៊ីនមេរបស់មជ្ឈមណ្ឌលបញ្ជា។
ចំណាំ៖ មុននឹងបន្ត អ្នកត្រូវតែបង្កើត keystore ដែលមានវិញ្ញាបនបត្រ SSL ដោយធ្វើតាមការណែនាំនៅក្នុង "ឧបសម្ព័ន្ធ" នៅទំព័រ 17។ ផ្លូវដែលបានរៀបរាប់ខាងក្រោមបានមកពីការណែនាំទាំងនេះ។
ឃ្លាំងសម្ងាត់ SSL គឺ ក file រក្សាទុកនៅលើថាសជាមួយ file ផ្នែកបន្ថែម .jks ។
នៅពេលដែលអ្នកមានវិញ្ញាបនបត្រដែលត្រូវការត្រូវបានបង្កើតឡើងសម្រាប់ទាំងឈ្មួញកណ្តាល Kafka និងអតិថិជន Kafka ដែលអាចប្រើបាន អ្នកអាចបន្តដោយកំណត់រចនាសម្ព័ន្ធឈ្មួញកណ្តាល Kafka ដែលដំណើរការនៅក្នុងមជ្ឈមណ្ឌលបញ្ជា។ អ្នកត្រូវដឹងដូចខាងក្រោម៖
- ៖ ឈ្មោះម៉ាស៊ីនសាធារណៈរបស់មជ្ឈមណ្ឌលបញ្ជា; នេះត្រូវតែអាចដោះស្រាយបាន និងអាចចូលដំណើរការបានដោយអតិថិជន Kafka ។
- ៖ ពាក្យសម្ងាត់ឃ្លាំងសម្ងាត់ដែលបានផ្ដល់ពេលបង្កើតវិញ្ញាបនបត្រ SSL ។
- និង ៖ ទាំងនេះគឺជាពាក្យសម្ងាត់ដែលអ្នកចង់កំណត់សម្រាប់អ្នកគ្រប់គ្រង និងអ្នកប្រើប្រាស់អតិថិជនរៀងៗខ្លួន។ ចំណាំថាអ្នកអាចបន្ថែមអ្នកប្រើប្រាស់បន្ថែមទៀត ដូចដែលបានបញ្ជាក់នៅក្នុង exampលេ
កែសម្រួល ឬបន្ថែម (ជាមួយការចូលប្រើ sudo) លក្ខណៈសម្បត្តិខាងក្រោមក្នុង /etc/kafka/server.properties ដោយបញ្ចូលអថេរខាងលើដូចបានបង្ហាញ៖
ព្រមាន៖ កុំលុប PLAINTEXT://localhost:9092; វានឹងធ្វើឱ្យខូចមុខងាររបស់មជ្ឈមណ្ឌលបញ្ជា ដោយសារសេវាកម្មខាងក្នុងនឹងមិនអាចទំនាក់ទំនងបានទេ។
- …
- # អាសយដ្ឋានដែលឈ្មួញកណ្តាល Kafka ស្តាប់។
- listeners=PLAINTEXT://localhost:9092,SASL_SSL://0.0.0.0:9093
- # ទាំងនេះគឺជាម៉ាស៊ីនដែលបានផ្សព្វផ្សាយត្រឡប់ទៅអតិថិជនណាមួយដែលភ្ជាប់។
- advertised.listeners=PLAINTEXT://localhost:9092,SASL_SSL:// ៖ ៩០៩៣…
- ####### កំណត់រចនាសម្ព័ន្ធផ្ទាល់ខ្លួន
- # ការកំណត់ SSL
- ssl.endpoint.identification.algorithm=
ssl.keystore.location=/var/ssl/private/kafka.server.keystore.jks - ssl.keystore.password=
- ssl.key.password=
- ssl.client.auth=គ្មាន
- ssl.protocol=TLSv1.2
- # ការកំណត់រចនាសម្ព័ន្ធ SASL
- sasl.enabled.mechanisms=PLAIN
- username=”admin” \\
- ពាក្យសម្ងាត់ =” ” \
- user_admin=” ” \
- user_client=” ”;
- # ចំណាំ អ្នកប្រើប្រាស់អាចបន្ថែមជាមួយ user_ =
- # ការអនុញ្ញាត បើក ACLs
- authorizer.class.name=kafka.security.authorizer.AclAuthorizer super.users=User:admin
ការដំឡើងបញ្ជីត្រួតពិនិត្យការចូលប្រើ (ACLs)
បើក ACLs នៅលើម៉ាស៊ីនមូលដ្ឋាន
ការព្រមាន៖ ជាដំបូងយើងត្រូវរៀបចំ ACLs សម្រាប់ localhost ដូច្នេះមជ្ឈមណ្ឌលបញ្ជាខ្លួនឯងនៅតែអាចចូលប្រើ Kafka បាន។ ប្រសិនបើរឿងនេះមិនត្រូវបានធ្វើទេ អ្វីៗនឹងខូច។
- -authorizer kafka.security.authorizer.AclAuthorizer \\
- –authorizer-properties zookeeper.connect=localhost:2181 \\
- -add -allow-principal User: ANONYMOUS -allow-host 127.0.0.1 -cluster
- /usr/lib/kafka/bin/kafka-acls.sh \\
- -authorizer kafka.security.authorizer.AclAuthorizer \\
- –authorizer-properties zookeeper.connect=localhost:2181 \\
- –add –allow-principal User: ANONYMOUS –allow-host 127.0.0.1 –topic '*'
- /usr/lib/kafka/bin/kafka-acls.sh \\
- -authorizer kafka.security.authorizer.AclAuthorizer \\
- –authorizer-properties zookeeper.connect=localhost:2181 \\
- –add –allow-principal User: ANONYMOUS –allow-host 127.0.0.1 –group '*'
បន្ទាប់មកយើងត្រូវបើក ACLs សម្រាប់ការចូលប្រើបានតែអានខាងក្រៅ ដូច្នេះអ្នកប្រើប្រាស់ខាងក្រៅត្រូវបានអនុញ្ញាតឱ្យអានប្រធានបទ paa.public.* ។
### ធាតុ ACLs សម្រាប់អ្នកប្រើប្រាស់អនាមិក /usr/lib/kafka/bin/kafka-acls.sh \\
ចំណាំ៖ សម្រាប់ការគ្រប់គ្រងល្អិតល្អន់ សូមមើលឯកសារផ្លូវការរបស់ Kafka ។
- -authorizer kafka.security.authorizer.AclAuthorizer \\
- –authorizer-properties zookeeper.connect=localhost:2181 \\
- –add –allow-principal User:* –operation read –operation describe \ –group 'NCC'
- /usr/lib/kafka/bin/kafka-acls.sh \\
- -authorizer kafka.security.authorizer.AclAuthorizer \\
- –authorizer-properties zookeeper.connect=localhost:2181 \\
- –add –allow-principal User:* –operation read –operation describe \ –topic paa.public. -resource-pattern-type បុព្វបទ
នៅពេលរួចរាល់ហើយ អ្នកត្រូវចាប់ផ្តើមសេវាកម្មឡើងវិញ៖
### ធាតុ ACLs សម្រាប់អ្នកប្រើប្រាស់ខាងក្រៅ /usr/lib/kafka/bin/kafka-acls.sh \
- សេវាកម្ម sudo ncc ចាប់ផ្តើមឡើងវិញ
ដើម្បីផ្ទៀងផ្ទាត់ថាម៉ាស៊ីនភ្ញៀវអាចបង្កើតការតភ្ជាប់សុវត្ថិភាព សូមដំណើរការពាក្យបញ្ជាខាងក្រោមនៅលើផ្នែកខាងក្រៅ
កុំព្យូទ័រអតិថិជន (មិនមែននៅលើម៉ាស៊ីនមេរបស់មជ្ឈមណ្ឌលបញ្ជាទេ) ។ ខាងក្រោម PUBLIC_HOSTNAME គឺជាឈ្មោះម៉ាស៊ីនរបស់មជ្ឈមណ្ឌលបញ្ជា៖
- openssl s_client -debug -connect ${PUBLIC_HOSTNAME}:9093 -tls1_2 | grep "ការចរចាឡើងវិញដោយសុវត្ថិភាព IS ត្រូវបានគាំទ្រ"
នៅក្នុងលទ្ធផលពាក្យបញ្ជា អ្នកគួរតែឃើញវិញ្ញាបនបត្រម៉ាស៊ីនមេ ក៏ដូចជាដូចខាងក្រោម៖
- ការចរចាឡើងវិញដោយសុវត្ថិភាព IS ត្រូវបានគាំទ្រ
ដើម្បីធានាថាសេវាកម្មខាងក្នុងត្រូវបានផ្តល់សិទ្ធិចូលប្រើម៉ាស៊ីនមេ Kafka សូមពិនិត្យមើលកំណត់ហេតុខាងក្រោមfiles:
- /var/log/kafka/server.log
- /var/log/kafka/kafka-authorizer.log
ធ្វើឱ្យមានសុពលភាពការតភ្ជាប់អតិថិជនខាងក្រៅ
កាហ្វកាកាត
ចំណាំ៖ ការណែនាំទាំងនេះគឺត្រូវដំណើរការលើកុំព្យូទ័រអតិថិជន (មិនមែននៅលើម៉ាស៊ីនមេរបស់មជ្ឈមណ្ឌលបញ្ជាទេ)។
ចំណាំ៖ ដើម្បីបង្ហាញព័ត៌មានអំពីម៉ែត្រ សូមប្រាកដថាម៉ូនីទ័រយ៉ាងហោចណាស់មួយកំពុងដំណើរការនៅក្នុងមជ្ឈមណ្ឌលបញ្ជា។
ដើម្បីផ្ទៀងផ្ទាត់ និងផ្ទៀងផ្ទាត់ការតភ្ជាប់ជាម៉ាស៊ីនភ្ញៀវខាងក្រៅ វាអាចប្រើឧបករណ៍ប្រើប្រាស់ kafkacat ដែលត្រូវបានដំឡើងនៅក្នុងផ្នែក "ផ្ទៀងផ្ទាត់ថាស្ទ្រីម API ដំណើរការនៅក្នុងមជ្ឈមណ្ឌលបញ្ជា" នៅទំព័រទី 4 ។
អនុវត្តជំហានដូចខាងក្រោមៈ
ចំណាំ៖ ខាងក្រោម CLIENT_USER គឺជាអ្នកប្រើប្រាស់ដែលបានបញ្ជាក់ពីមុននៅក្នុង file /etc/kafka/server.properties ក្នុង Control Center៖ គឺ user_client និងពាក្យសម្ងាត់ដែលបានកំណត់នៅទីនោះ។
វិញ្ញាបនបត្រឫសគល់ CA ដែលប្រើដើម្បីចុះហត្ថលេខាលើវិញ្ញាបនបត្រ SSL ខាងម៉ាស៊ីនមេត្រូវតែមានវត្តមាននៅលើម៉ាស៊ីនភ្ញៀវ។
បង្កើត ក file client.properties ដែលមានខ្លឹមសារដូចខាងក្រោម៖
- security.protocol=SASL_SSL
- ssl.ca.location={PATH_TO_CA_CERT}
- sasl.mechanisms=PLAIN
- sasl.username={CLIENT_USER}
- sasl.password={CLIENT_PASSWORD}
កន្លែងណា
- {PATH_TO_CA_CERT} គឺជាទីតាំងនៃវិញ្ញាបនបត្រឫសគល់ CA ដែលប្រើដោយឈ្មួញកណ្តាល Kafka
- {CLIENT_USER} និង {CLIENT_PASSWORD} គឺជាអត្តសញ្ញាណអ្នកប្រើប្រាស់សម្រាប់អតិថិជន។
ដំណើរការពាក្យបញ្ជាខាងក្រោមដើម្បីមើលសារដែលប្រើប្រាស់ដោយ kafkacat៖
- នាំចេញ KAFKA_FQDN=
- នាំចេញ METRICS_TOPIC=paa.public.accounts។ .ម៉ែត្រ
- kafkacat -b ${KAFKA_FQDN}:9093 -F client.properties -t ${METRICS_TOPIC} -C -e
ដែល {METRICS_TOPIC} គឺជាឈ្មោះប្រធានបទ Kafka ដែលមានបុព្វបទ “paa.public”។
ចំណាំ៖ កំណែចាស់របស់ kafkacat មិនផ្តល់ជម្រើស -F សម្រាប់អានការកំណត់ម៉ាស៊ីនភ្ញៀវពី a file. ប្រសិនបើអ្នកកំពុងប្រើកំណែបែបនេះ អ្នកត្រូវតែផ្តល់ការកំណត់ដូចគ្នាពីបន្ទាត់ពាក្យបញ្ជាដូចបានបង្ហាញខាងក្រោម។
kafkacat -b ${KAFKA_FQDN}:9093 \\
- X security.protocol=SASL_SSL \\
- X ssl.ca.location={PATH_TO_CA_CERT} \
- X sasl.mechanisms=PLAIN \\
- X sasl.username={CLIENT_USER} \\
- X sasl.password={CLIENT_PASSWORD} \\
- t ${METRICS_TOPIC} -C -e
ដើម្បីបំបាត់កំហុសការតភ្ជាប់ អ្នកអាចប្រើជម្រើស -d៖
បំបាត់កំហុសទំនាក់ទំនងអ្នកប្រើប្រាស់
kafkacat -d អ្នកប្រើប្រាស់ -b ${KAFKA_FQDN}:9093 -F client.properties -t ${METRICS_TOPIC} -C -e
# បំបាត់កំហុសទំនាក់ទំនងឈ្មួញកណ្តាល
kafkacat -d ឈ្មួញកណ្តាល -b ${KAFKA_FQDN}:9093 -F client.properties -t ${METRICS_TOPIC} -C -e
ត្រូវប្រាកដថាយោងទៅឯកសារសម្រាប់បណ្ណាល័យម៉ាស៊ីនភ្ញៀវ Kafka ដែលកំពុងប្រើប្រាស់ ដោយសារលក្ខណៈសម្បត្តិអាចខុសគ្នាពីឯកសារនៅក្នុង client.properties ។
ទម្រង់សារ
សារដែលប្រើសម្រាប់ប្រធានបទម៉ែត្រ និងទិន្នន័យមេតាត្រូវបានដាក់សៀរៀលក្នុងទម្រង់ Protocol buffers (protobuf) (សូមមើល developers.google.com/protocol-buffers) គ្រោងការណ៍សម្រាប់សារទាំងនេះប្រកាន់ខ្ជាប់នូវទម្រង់ដូចខាងក្រោម៖
គ្រោងការណ៍ម៉ែត្រ Protobuf
- វាក្យសម្ព័ន្ធ = "proto3";
- នាំចូល “google/protobuf/timestamp.proto”;
- កញ្ចប់ paa.streamingapi;
- ជម្រើស go_package = “.;paa_streamingapi”;
- សារម៉ែត្រ {
- google.protobuf.ពេលវេលាបំផុតamp ដងបំផុតamp = ៩៧;
- ផែនទី តម្លៃ = 2;
- int32 stream_id = 3;
- }
- /**
- * តម្លៃម៉ែត្រអាចជាចំនួនគត់ ឬអណ្តែត។
- */
- សារ MetricValue {
- ប្រភេទមួយ {
- int64 int_val = 1;
- អណ្តែត float_val = 2;
- }
- }
គ្រោងការណ៍ទិន្នន័យមេតា Protobuf
- វាក្យសម្ព័ន្ធ = "proto3";
- កញ្ចប់ paa.streamingapi;
- ជម្រើស go_package = “.;paa_streamingapi”;
- សារទិន្នន័យមេតា {
- int32 stream_id = 1;
- string stream_name = 2;
- ផែនទី tags = ៩៧;
- }
អតិថិជន Examples
ចំណាំ៖ ពាក្យបញ្ជាទាំងនេះមានគោលបំណងដំណើរការលើម៉ាស៊ីនភ្ញៀវខាងក្រៅសម្រាប់ឧampកុំព្យូទ័រយួរដៃរបស់អ្នក ឬស្រដៀងគ្នា ហើយមិនមែននៅក្នុងមជ្ឈមណ្ឌលបញ្ជាទេ។
ចំណាំ៖ ដើម្បីបង្ហាញព័ត៌មានអំពីម៉ែត្រ សូមប្រាកដថាម៉ូនីទ័រយ៉ាងហោចណាស់មួយកំពុងដំណើរការនៅក្នុងមជ្ឈមណ្ឌលបញ្ជា។
មជ្ឈមណ្ឌលបញ្ជា tarball រួមបញ្ចូលទាំងប័ណ្ណសារ paa-streaming-api-client-examples.tar.gz (អតិថិជន-ឧamples) ដែលមាន ឧample ស្គ្រីប Python បង្ហាញពីរបៀបប្រើ Streaming API ។
ការដំឡើង និងកំណត់រចនាសម្ព័ន្ធអតិថិជន Examples
អ្នករកឃើញអតិថិជន - ឧamples នៅក្នុងថត Paragon Active Assurance Control Center៖
- នាំចេញ CC_VERSION=4.1.0
- cd ./paa-control-center_${CC_VERSION}
- ls paa-streaming-api-client-examples*
ដើម្បីដំឡើង client-examples នៅលើកុំព្យូទ័រភ្ញៀវខាងក្រៅរបស់អ្នក សូមបន្តដូចខាងក្រោម៖
- # បង្កើតថតសម្រាប់ស្រង់មាតិការបស់អតិថិជន examples tarball
- mkdir paa-streaming-api-client-examples
- # ស្រង់ខ្លឹមសាររបស់អតិថិជន ឧamples tarball
- tar xzf paa-streaming-api-client-examples.tar.gz -C paa-streaming-api-client-examples
- # ទៅកាន់ថតដែលបានបង្កើតថ្មី។
- ស៊ីឌី paa-streaming-api-client-examples
អតិថិជន-ឧamples តម្រូវឱ្យ Docker ដំណើរការ។ ការទាញយក និងការណែនាំអំពីការដំឡើងសម្រាប់ Docker អាចរកបាននៅ https://docs.docker.com/engine/install.
ការប្រើប្រាស់ Client Examples
អតិថិជន - ឧampឧបករណ៍ les អាចដំណើរការជាទម្រង់មូលដ្ឋាន ឬកម្រិតខ្ពស់ ដើម្បីបង្កើត exampភាពស្មុគស្មាញផ្សេងៗគ្នា។ ក្នុងករណីទាំងពីរនេះ វាក៏អាចដំណើរការអតីតamples ជាមួយនឹងការកំណត់រចនាសម្ព័ន្ធ file មានលក្ខណៈសម្បត្តិបន្ថែមសម្រាប់ការប្ដូរតាមបំណងបន្ថែមទៀតនៃភាគីអតិថិជន។
របៀបមូលដ្ឋាន
នៅក្នុងរបៀបមូលដ្ឋាន រង្វាស់ម៉ែត្រ និងទិន្នន័យមេតារបស់ពួកវាត្រូវបានចាក់ផ្សាយដោយឡែកពីគ្នា។ ដល់ទីបញ្ចប់នេះ អតិថិជនស្តាប់ប្រធានបទ Kafka នីមួយៗដែលមានសម្រាប់ការចូលប្រើខាងក្រៅ ហើយគ្រាន់តែបោះពុម្ពសារដែលបានទទួលទៅកុងសូល។
ដើម្បីចាប់ផ្តើមការប្រតិបត្តិនៃ ex មូលដ្ឋានamples, រត់:
- build.sh run-basic –kafka-brokers localhost:9092 –គណនី ACCOUNT_SHORTNAME
ដែល ACCOUNT_SHORTNAME គឺជាឈ្មោះខ្លីនៃគណនីដែលអ្នកចង់ទទួលបានម៉ែត្រពី។
ដើម្បីបញ្ចប់ការប្រតិបត្តិរបស់អតីតample ចុច Ctrl + C. (អាចមានការពន្យាពេលបន្តិច មុនពេលការប្រតិបត្តិឈប់ ដោយសារអតិថិជនរង់ចាំព្រឹត្តិការណ៍អស់ពេល។)
របៀបកម្រិតខ្ពស់
ចំណាំ៖ ម៉ែត្រត្រូវបានបង្ហាញសម្រាប់តែម៉ូនីទ័រ HTTP ដែលដំណើរការនៅក្នុងមជ្ឈមណ្ឌលបញ្ជាប៉ុណ្ណោះ។
ការប្រតិបត្តិក្នុងរបៀបកម្រិតខ្ពស់បង្ហាញពីទំនាក់ទំនងរវាងម៉ែត្រ និងសារទិន្នន័យមេតា។ នេះគឺជា
អាចធ្វើទៅបាន ដោយសារវត្តមាននៅក្នុងសារម៉ែត្រនីមួយៗនៃវាលលេខសម្គាល់ស្ទ្រីម ដែលសំដៅលើសារទិន្នន័យមេតាដែលត្រូវគ្នា។
ដើម្បីប្រតិបត្តិ ឧamples, រត់:
- build.sh run-advanced –kafka-brokers localhost:9092 –គណនី ACCOUNT_SHORTNAME
ដែល ACCOUNT_SHORTNAME គឺជាឈ្មោះខ្លីនៃគណនីដែលអ្នកចង់ទទួលបានម៉ែត្រពី។
ដើម្បីបញ្ចប់ការប្រតិបត្តិរបស់អតីតample ចុច Ctrl + C. (អាចមានការពន្យាពេលបន្តិច មុនពេលការប្រតិបត្តិឈប់ ដោយសារអតិថិជនរង់ចាំព្រឹត្តិការណ៍អស់ពេល។)
ការកំណត់បន្ថែម
វាអាចទៅរួចក្នុងការដំណើរការអតីតamples ជាមួយនឹងការកំណត់រចនាសម្ព័ន្ធបន្ថែមរបស់អតិថិជនដោយប្រើ -config-file ជម្រើសតាមពីក្រោយដោយ ក file ឈ្មោះដែលមានលក្ខណៈសម្បត្តិក្នុងសំណុំបែបបទ key=value ។
- build.sh run-advanced \\
- -kafka-brokers localhost:9092 \\
- – គណនី ACCOUNT_SHORTNAME \
- - កំណត់រចនាសម្ព័ន្ធ -file client_config.properties
ចំណាំ៖ ទាំងអស់។ files យោងក្នុងពាក្យបញ្ជាខាងលើត្រូវតែមានទីតាំងស្ថិតនៅក្នុងថតបច្ចុប្បន្ន ហើយត្រូវបានបញ្ជូនដោយប្រើតែផ្លូវដែលទាក់ទង។ នេះអនុវត្តទាំងពីរចំពោះ -config-file អាគុយម៉ង់ និងធាតុទាំងអស់នៅក្នុងការកំណត់រចនាសម្ព័ន្ធ file ដែលពិពណ៌នា file ទីតាំង។
ធ្វើឱ្យមានសុពលភាពការផ្ទៀងផ្ទាត់អតិថិជនខាងក្រៅ
ដើម្បីធ្វើសុពលភាពការផ្ទៀងផ្ទាត់អតិថិជនពីខាងក្រៅមជ្ឈមណ្ឌលបញ្ជាដោយប្រើប្រាស់ client-examples, អនុវត្តជំហានដូចខាងក្រោម:
ពីថត Paragon Active Assurance Control Center សូមប្តូរទៅ paa-streaming-api-client-examples folder:
ស៊ីឌី paa-streaming-api-client-examples
- ចម្លងវិញ្ញាបនបត្រ CA root ca-cert ទៅក្នុងថតបច្ចុប្បន្ន។
- បង្កើត client.properties file ជាមួយនឹងខ្លឹមសារដូចខាងក្រោម៖
security.protocol=SASL_SSL ssl.ca.location=ca-cert
sasl.mechanism=PLAIN
sasl.username={CLIENT_USER}
sasl.password={CLIENT_PASSWORD}
កន្លែងដែល {CLIENT_USER} និង {CLIENT_PASSWORD} គឺជាព័ត៌មានសម្គាល់អ្នកប្រើប្រាស់សម្រាប់អតិថិជន។
ដំណើរការមូលដ្ឋាន ឧamples:
- នាំចេញ KAFKA_FQDN=
- build.sh run-basic –kafka-brokers ${KAFKA_FQDN}:9093 \
- – គណនី ACCOUNT_SHORTNAME
- - កំណត់រចនាសម្ព័ន្ធ -file client.properties
ដែល ACCOUNT_SHORTNAME គឺជាឈ្មោះខ្លីនៃគណនីដែលអ្នកចង់ទទួលបានម៉ែត្រពី។
ដំណើរការ ឧamples:
- នាំចេញ KAFKA_FQDN=
- build.sh run-advanced –kafka-brokers ${KAFKA_FQDN}:9093 \
- – គណនី ACCOUNT_SHORTNAME
- - កំណត់រចនាសម្ព័ន្ធ -file client.properties
ឧបសម្ព័ន្ធ
នៅក្នុងឧបសម្ព័ន្ធនេះ យើងពិពណ៌នាអំពីរបៀបបង្កើត៖
- ឃ្លាំងសម្ងាត់ file សម្រាប់រក្សាទុកវិញ្ញាបនបត្រ SSL ឈ្មួញកណ្តាល Kafka
- ហាងជឿទុកចិត្ត file សម្រាប់ការរក្សាទុកវិញ្ញាបនបត្ររបស់អាជ្ញាធរវិញ្ញាបនប័ត្រ (CA) ដែលប្រើដើម្បីចុះហត្ថលេខាលើវិញ្ញាបនបត្រឈ្មួញកណ្តាល Kafka ។
ការបង្កើតវិញ្ញាបនប័ត្រឈ្មួញកណ្តាល Kafka
បង្កើតវិញ្ញាបនប័ត្រដោយប្រើអាជ្ញាធរវិញ្ញាបនបត្រពិតប្រាកដ (បានណែនាំ)
វាត្រូវបានណែនាំឱ្យអ្នកទទួលបានវិញ្ញាបនបត្រ SSL ពិតប្រាកដពី CA ដែលអាចទុកចិត្តបាន។
នៅពេលដែលអ្នកបានសម្រេចចិត្តលើ CA សូមចម្លងវិញ្ញាបនបត្រឫសគល់ CA របស់ពួកគេ ca-cert file ទៅកាន់ផ្លូវរបស់អ្នកដូចបង្ហាញខាងក្រោម៖
- នាំចេញ CA_PATH=~/my-ca
- mkdir ${CA_PATH}
- cp ca-cert ${CA_PATH}
បង្កើតអាជ្ញាធរវិញ្ញាបនបត្រផ្ទាល់ខ្លួនរបស់អ្នក។
ចំណាំ៖ ជាធម្មតា អ្នកគួរតែមានវិញ្ញាបនបត្ររបស់អ្នកចុះហត្ថលេខាដោយអាជ្ញាធរវិញ្ញាបនបត្រពិតប្រាកដ។ សូមមើលផ្នែករងមុន។ អ្វីដែលបន្ទាប់មកគឺគ្រាន់តែជាអតីតampលេ
នៅទីនេះយើងបង្កើតវិញ្ញាបនបត្ររបស់អាជ្ញាធរវិញ្ញាបនប័ត្រ (CA) ផ្ទាល់ខ្លួនរបស់យើង។ file មានសុពលភាព 999 ថ្ងៃ (មិនត្រូវបានណែនាំក្នុងការផលិត)៖
- # បង្កើតថតឯកសារសម្រាប់រក្សាទុក CA
- នាំចេញ CA_PATH=~/my-ca
- mkdir ${CA_PATH}
- # បង្កើតវិញ្ញាបនបត្រ CA
- openssl req -new -x509 -keyout ${CA_PATH}/ca-key -out ${CA_PATH}/ca-cert -days 999
ការបង្កើត Client Truststore
ឥឡូវនេះអ្នកអាចបង្កើត Truststore បាន។ file ដែលមានវិញ្ញាបនបត្រ ca-cert ដែលបានបង្កើតឡើងខាងលើ។ នេះ។ file នឹងត្រូវការដោយអតិថិជន Kafka ដែលនឹងចូលប្រើ Streaming API៖
- keytool -keystore kafka.client.truststore.jks \
- ឈ្មោះក្លែងក្លាយ CARoot \
- ឯកសារនាំចូល -file ${CA_PATH}/ca-cert
ឥឡូវនេះ វិញ្ញាបនបត្រ CA ស្ថិតនៅក្នុង truststore អតិថិជននឹងជឿជាក់លើវិញ្ញាបនបត្រណាមួយដែលបានចុះហត្ថលេខាជាមួយវា។
អ្នកគួរតែចម្លង file kafka.client.truststore.jks ទៅកាន់ទីតាំងដែលគេស្គាល់នៅលើកុំព្យូទ័រអតិថិជនរបស់អ្នក ហើយចង្អុលទៅវានៅក្នុងការកំណត់។
ការបង្កើត Keystore សម្រាប់ឈ្មួញកណ្តាល Kafka
ដើម្បីបង្កើតវិញ្ញាបនបត្រ SSL ឈ្មួញកណ្តាល Kafka ហើយបន្ទាប់មក keystore kafka.server.keystore.jks សូមបន្តដូចខាងក្រោម៖
ការបង្កើតវិញ្ញាបនបត្រ SSL
ខាងក្រោម 999 គឺជាចំនួនថ្ងៃនៃសុពលភាពរបស់ keystore ហើយ FQDN គឺជាឈ្មោះដែនដែលមានលក្ខណៈសម្បត្តិគ្រប់គ្រាន់របស់អតិថិជន (ឈ្មោះម៉ាស៊ីនសាធារណៈរបស់ថ្នាំង)។
ចំណាំ៖ វាមានសារៈសំខាន់ដែល FQDN ត្រូវនឹងឈ្មោះម៉ាស៊ីនពិតប្រាកដដែលអតិថិជន Kafka នឹងប្រើដើម្បីភ្ជាប់ទៅមជ្ឈមណ្ឌលបញ្ជា។
- sudo mkdir -p /var/ssl/private
- sudo chown -R $USER: /var/ssl/private
- ស៊ីឌី /var/ssl/ឯកជន
- នាំចេញ FQDN = keytool -keystore kafka.server.keystore.jks \
- - ម៉ាស៊ីនមេឈ្មោះក្លែងក្លាយ \\
- - សុពលភាព 999 \\
- – genkey -keyalg RSA -ext SAN=dns:${FQDN}
បង្កើតសំណើចុះហត្ថលេខាលើវិញ្ញាបនបត្រ ហើយរក្សាទុកវានៅក្នុងប្រអប់ file ឈ្មោះ cert-server-request:
- keytool -keystore kafka.server.keystore.jks \
- - ម៉ាស៊ីនមេឈ្មោះក្លែងក្លាយ \\
- - certreq \\
- – file cert-server-request
ឥឡូវនេះអ្នកគួរតែផ្ញើ file cert-server-request ទៅអាជ្ញាធរវិញ្ញាបនបត្ររបស់អ្នក (CA) ប្រសិនបើអ្នកកំពុងប្រើពិតប្រាកដមួយ។ បន្ទាប់មកពួកគេនឹងប្រគល់វិញ្ញាបនបត្រដែលបានចុះហត្ថលេខា។ យើងនឹងយោងទៅនេះថាជា cert-server-signed ខាងក្រោម។
ការចុះហត្ថលេខាលើវិញ្ញាបនបត្រ SSL ដោយប្រើវិញ្ញាបនបត្រ CA ដែលបង្កើតដោយខ្លួនឯង។
ចំណាំ៖ ជាថ្មីម្តងទៀត ការប្រើប្រាស់ CA ផ្ទាល់ខ្លួនរបស់អ្នកមិនត្រូវបានណែនាំនៅក្នុងប្រព័ន្ធផលិតកម្មទេ។
ចុះហត្ថលេខាលើវិញ្ញាបនបត្រដោយប្រើ CA ដោយមធ្យោបាយនៃ file cert-server-request ដែលបង្កើតវិញ្ញាបនបត្រដែលបានចុះហត្ថលេខា cert-server-signed ។ មើលខាងក្រោម; ca-password គឺជាពាក្យសម្ងាត់ដែលបានកំណត់នៅពេលបង្កើតវិញ្ញាបនបត្រ CA ។
- ស៊ីឌី /var/ssl/private openssl x509 -req \\
- – CA ${CA_PATH}/ca-cert \\
- – CAkey ${CA_PATH}/ca-key \\
- - នៅក្នុង cert-server-request \\
- - ចេញ cert-server-signed \\
- - ថ្ងៃ 999 - CAcreateserial \
- - លេខសំងាត់៖ {ca-password}
ការនាំចូលវិញ្ញាបនបត្រដែលបានចុះហត្ថលេខាទៅក្នុង Keystore
នាំចូលវិញ្ញាបនបត្រឫសគល់ ca-cert ទៅក្នុងឃ្លាំងសម្ងាត់៖
- keytool -keystore kafka.server.keystore.jks \
- - ឈ្មោះក្លែងក្លាយ ca-cert \\
- - នាំចូល \\
- – file ${CA_PATH}/ca-cert
នាំចូលវិញ្ញាបនបត្រដែលបានចុះហត្ថលេខា ហៅថា cert-server-signed៖
- keytool -keystore kafka.server.keystore.jks \
- - ម៉ាស៊ីនមេឈ្មោះក្លែងក្លាយ \\
- - នាំចូល \\
- – file ចុះហត្ថលេខាលើម៉ាស៊ីនមេ
នេះ។ file kafka.server.keystore.jks គួរតែត្រូវបានចម្លងទៅទីតាំងដែលគេស្គាល់នៅលើម៉ាស៊ីនមេរបស់មជ្ឈមណ្ឌលបញ្ជា ហើយបន្ទាប់មកត្រូវបានបញ្ជូនទៅក្នុង /etc/kafka/server.properties ។
ការប្រើប្រាស់ស្ទ្រីម API
នៅក្នុងផ្នែកនេះ។
- ទូទៅ | ២០
- ឈ្មោះប្រធានបទ Kafka | ២១
- Examples នៃការប្រើប្រាស់ស្ទ្រីម API | ២១
ទូទៅ
API ស្ទ្រីមទាញយកទាំងទិន្នន័យសាកល្បង និងត្រួតពិនិត្យ។ វាមិនអាចទៅរួចក្នុងការដាក់ចេញមួយក្នុងចំណោមប្រភេទទាំងនេះទេ។
API ស្ទ្រីមមិនទាញយកទិន្នន័យពីការធ្វើតេស្តផ្អែកលើស្គ្រីបទេ (ដែលតំណាងដោយចតុកោណកែង ជំនួសឱ្យបំណែក jigsaw នៅក្នុង Control Center GUI) ដូចជាការធ្វើតេស្តធ្វើឱ្យសេវាអ៊ីសឺរណិត និងការធ្វើតេស្តតម្លាភាព។
ឈ្មោះប្រធានបទ Kafka
ឈ្មោះប្រធានបទ Kafka សម្រាប់ស្ទ្រីម API មានដូចខាងក្រោម ដែល %s ជាឈ្មោះខ្លីនៃគណនីមជ្ឈមណ្ឌលបញ្ជា (បង្ហាញនៅពេលបង្កើតគណនី)៖
- const (
- ឈ្មោះអ្នកនាំចេញ = "កាហ្វកា"
- metadataTopicTpl = “paa.public.accounts.%s.metadata” metricsTopicTpl = “paa.public.accounts.%s.metrics”)
Examples នៃការប្រើប្រាស់ Streaming API
អតីតamples ដែលធ្វើតាមត្រូវបានរកឃើញនៅក្នុង tarball paa-streaming-api-client-examples.tar.gz មាននៅក្នុង tarball មជ្ឈមណ្ឌលបញ្ជា។
ទីមួយមានអតីតមូលដ្ឋានample បង្ហាញពីរបៀបដែលម៉ែត្រ និងទិន្នន័យមេតារបស់ពួកគេត្រូវបានផ្សាយដោយឡែកពីគ្នា ហើយគ្រាន់តែបោះពុម្ពសារដែលបានទទួលទៅកុងសូល។ អ្នកអាចដំណើរការវាដូចខាងក្រោមៈ
- sudo ./build.sh run-basic –kafka-brokers localhost:9092 –គណនី ACCOUNT_SHORTNAME
មានអតីតមនុស្សដែលជឿនលឿនជាងនេះផងដែរ។ample ជាកន្លែងដែលម៉ែត្រ និងសារទិន្នន័យមេតាត្រូវបានទាក់ទងគ្នា។ ប្រើពាក្យបញ្ជានេះដើម្បីដំណើរការវា៖
- sudo ./build.sh run-advanced –kafka-brokers localhost:9092 –គណនី ACCOUNT_SHORTNAME
អ្នកត្រូវប្រើ sudo ដើម្បីដំណើរការពាក្យបញ្ជា Docker ដូចពាក្យខាងលើ។ ជាជម្រើស អ្នកអាចអនុវត្តតាមជំហានក្រោយការដំឡើងលីនុច ដើម្បីអាចដំណើរការពាក្យបញ្ជា Docker ដោយមិនប្រើ sudo ។ សម្រាប់ព័ត៌មានលម្អិត សូមចូលទៅកាន់ docs.docker.com/engine/install/linux-postinstall.
Juniper Networks និមិត្តសញ្ញា Juniper Networks Juniper និង Junos គឺជាពាណិជ្ជសញ្ញាដែលបានចុះបញ្ជីរបស់ Juniper Networks, Inc. នៅសហរដ្ឋអាមេរិក និងប្រទេសដទៃទៀត។ រាល់ពាណិជ្ជសញ្ញា សញ្ញាសេវាកម្ម ម៉ាកដែលបានចុះបញ្ជី ឬសញ្ញាសម្គាល់សេវាកម្មដែលបានចុះបញ្ជី គឺជាកម្មសិទ្ធិរបស់ម្ចាស់រៀងៗខ្លួន។ Juniper Networks មិនទទួលខុសត្រូវចំពោះភាពមិនត្រឹមត្រូវណាមួយនៅក្នុងឯកសារនេះទេ។ Juniper Networks រក្សាសិទ្ធិក្នុងការផ្លាស់ប្តូរ កែប្រែ ផ្ទេរ ឬកែប្រែការបោះពុម្ពនេះដោយមិនចាំបាច់ជូនដំណឹងជាមុន។ រក្សាសិទ្ធិ © 2023 Juniper Networks, Inc. រក្សាសិទ្ធិគ្រប់យ៉ាង។
ឯកសារ/ធនធាន
![]() |
កម្មវិធី Juniper NETWORKS Streaming API [pdf] ការណែនាំអ្នកប្រើប្រាស់ កម្មវិធីស្ទ្រីម API កម្មវិធី API កម្មវិធី |