កញ្ចប់ឧបករណ៍វិភាគ Intel AI សម្រាប់លីនុច
ព័ត៌មានអំពីផលិតផល
កញ្ចប់ AI គឺជាកញ្ចប់ឧបករណ៍ដែលរួមបញ្ចូលបរិយាកាស conda ជាច្រើនសម្រាប់ការរៀនម៉ាស៊ីន និងគម្រោងសិក្សាស៊ីជម្រៅ។ វារួមបញ្ចូលបរិស្ថានសម្រាប់ TensorFlow, PyTorch និង Intel oneCCL Bindings ។ វាអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់កំណត់រចនាសម្ព័ន្ធប្រព័ន្ធរបស់ពួកគេដោយកំណត់អថេរបរិស្ថាន ដោយប្រើ Conda ដើម្បីបន្ថែមកញ្ចប់ ដំឡើងកម្មវិធីបញ្ជាក្រាហ្វិក និងបិទដំណើរការ hangcheck ។ កញ្ចប់ឧបករណ៍អាចត្រូវបានប្រើនៅ ចំណុចប្រទាក់បន្ទាត់ពាក្យបញ្ជា (CLI) ហើយអាចត្រូវបានរួមបញ្ចូលយ៉ាងងាយស្រួលទៅក្នុងគម្រោងដែលមានស្រាប់ដោយមិនចាំបាច់មានការកែប្រែពិសេសណាមួយឡើយ។
ការប្រើប្រាស់ផលិតផល
- កំណត់រចនាសម្ព័ន្ធប្រព័ន្ធរបស់អ្នកដោយកំណត់អថេរបរិស្ថាន មុនពេលបន្ត។
- ដើម្បីធ្វើការនៅ Command Line Interface (CLI) សូមប្រើស្គ្រីប setvars.sh ដើម្បីកំណត់រចនាសម្ព័ន្ធឧបករណ៍នៅក្នុងប្រអប់ឧបករណ៍ oneAPI តាមរយៈអថេរបរិស្ថាន។ អ្នកអាចប្រភពស្គ្រីប setvars.sh ម្តងក្នុងមួយវគ្គ ឬរាល់ពេលដែលអ្នកបើកបង្អួចស្ថានីយថ្មី។ ស្គ្រីប setvars.sh អាចត្រូវបានរកឃើញនៅក្នុងថត root នៃការដំឡើង oneAPI របស់អ្នក។
- ធ្វើឱ្យបរិយាកាស conda ផ្សេងគ្នាតាមតម្រូវការតាមរយៈពាក្យបញ្ជា “conda activate ”។ កញ្ចប់ AI រួមបញ្ចូលទាំងបរិស្ថាន conda សម្រាប់ TensorFlow (CPU), TensorFlow ជាមួយ Intel Extension សម្រាប់ Sample TensorFlow (GPU), PyTorch ជាមួយ Intel Extension សម្រាប់ PyTorch (XPU) និង Intel oneCCL Bindings សម្រាប់ PyTorch (CPU) ។
- ស្វែងយល់ពីបរិស្ថាននីមួយៗដែលទាក់ទងនឹងការចាប់ផ្តើម Sample បានភ្ជាប់នៅក្នុងតារាងដែលបានផ្តល់នៅក្នុងសៀវភៅណែនាំអ្នកប្រើប្រាស់សម្រាប់ព័ត៌មានបន្ថែមអំពីរបៀបប្រើប្រាស់បរិស្ថាននីមួយៗ។
ការណែនាំខាងក្រោមសន្មត់ថាអ្នកបានដំឡើងកម្មវិធី Intel® oneAPI ។ សូមមើលទំព័រប្រអប់ឧបករណ៍វិភាគ Intel AI សម្រាប់ជម្រើសដំឡើង។ អនុវត្តតាមជំហានទាំងនេះដើម្បីបង្កើត និងដំណើរការជាampជាមួយ Intel® AI Analytics Toolkit (AI Kit)៖
- កំណត់រចនាសម្ព័ន្ធរបស់អ្នក។
- បង្កើត និងដំណើរការ Sampលេ
ចំណាំ៖ ការដំឡើង Python ស្តង់ដារគឺត្រូវគ្នាយ៉ាងពេញលេញជាមួយ AI Kit ប៉ុន្តែ Intel® Distribution for Python* ត្រូវបានគេពេញចិត្ត។
គ្មានការកែប្រែពិសេសចំពោះគម្រោងដែលមានស្រាប់របស់អ្នកត្រូវបានទាមទារដើម្បីចាប់ផ្តើមប្រើប្រាស់ពួកវាជាមួយប្រអប់ឧបករណ៍នេះទេ។
ធាតុផ្សំនៃកញ្ចប់ឧបករណ៍នេះ។
កញ្ចប់ AI រួមបញ្ចូល
- Intel® Optimization for PyTorch*៖ Intel® oneAPI Deep Neural Network Library (oneDNN) ត្រូវបានរួមបញ្ចូលនៅក្នុង PyTorch ជាបណ្ណាល័យខឺណែលគណិតវិទ្យាលំនាំដើមសម្រាប់ការរៀនស៊ីជម្រៅ។
- Intel® Extension for PyTorch:Intel® Extension for PyTorch* ពង្រីកសមត្ថភាព PyTorch* ជាមួយនឹងលក្ខណៈពិសេសថ្មីៗ និងការបង្កើនប្រសិទ្ធភាពសម្រាប់ការជំរុញការអនុវត្តបន្ថែមលើផ្នែករឹងរបស់ Intel ។
- Intel® Optimization for TensorFlow*៖ កំណែនេះរួមបញ្ចូលបុព្វបទពី oneDNN ទៅក្នុងដំណើរការ TensorFlow សម្រាប់ដំណើរការបង្កើនល្បឿន។
- Intel® Extension for TensorFlow: Intel® Extension for TensorFlow* គឺជាកម្មវិធីជំនួយផ្នែកបន្ថែមការរៀនសូត្រជ្រៅដែលមានប្រសិទ្ធភាពខ្ពស់ដោយផ្អែកលើចំណុចប្រទាក់ TensorFlow PluggableDevice។ កម្មវិធីជំនួយផ្នែកបន្ថែមនេះនាំយកឧបករណ៍ Intel XPU (GPU, CPU, ល) ទៅក្នុងសហគមន៍ប្រភពបើកចំហ TensorFlow សម្រាប់ការបង្កើនល្បឿននៃបន្ទុកការងារ AI ។
- Intel® Distribution for Python*៖ ទទួលបានដំណើរការកម្មវិធី Python លឿនជាងមុនភ្លាមៗចេញពីប្រអប់ ជាមួយនឹងការផ្លាស់ប្តូរតិចតួច ឬគ្មានការកែប្រែចំពោះកូដរបស់អ្នក។ ការចែកចាយនេះត្រូវបានរួមបញ្ចូលជាមួយ Intel® Performance Libraries ដូចជា Intel® oneAPI Math Kernel Library និង Intel®oneAPI Data Analytics Library។
- Intel® Distribution of Modin* (មានតាមរយៈ Anaconda តែប៉ុណ្ណោះ) ដែលអាចឱ្យអ្នកធ្វើមាត្រដ្ឋានការដំណើរការមុនបានយ៉ាងរលូននៅលើថ្នាំងច្រើនដោយប្រើបណ្ណាល័យទិន្នន័យចែកចាយដ៏ឆ្លាតវៃនេះជាមួយនឹង API ដូចគ្នាទៅនឹងខ្លាឃ្មុំផេនដា។ ការចែកចាយនេះគឺអាចប្រើបានដោយការដំឡើងឧបករណ៍វិភាគ Intel® AI ជាមួយកម្មវិធីគ្រប់គ្រងកញ្ចប់ Conda* ប៉ុណ្ណោះ។
- Intel® Neural Compressor៖ ដាក់ពង្រាយដំណោះស្រាយការសន្និដ្ឋានកម្រិតទាបយ៉ាងរហ័សលើក្របខ័ណ្ឌសិក្សាជ្រៅជ្រះដ៏ពេញនិយមដូចជា TensorFlow*, PyTorch*, MXNet*, និង ONNX* (Open Neural Network Exchange) ពេលដំណើរការ។
- Intel® Extension for Scikit-learn*៖ ជាមធ្យោបាយគ្មានថ្នេរក្នុងការបង្កើនល្បឿនកម្មវិធី Scikit-learn របស់អ្នកដោយប្រើ Intel® oneAPI Data Analytics Library (oneDAL)។
បំណះ scikit-learn ធ្វើឱ្យវាជាក្របខណ្ឌនៃការរៀនម៉ាស៊ីនដែលសមស្របក្នុងការដោះស្រាយបញ្ហាក្នុងជីវិតពិត។ - XGBoost Optimized ដោយ Intel៖ កញ្ចប់រៀនម៉ាស៊ីនដ៏ល្បីនេះសម្រាប់ដើមឈើការសម្រេចចិត្តដែលជំរុញដោយជម្រាលរួមមានការបង្កើនល្បឿនគ្មានថ្នេរ និងទម្លាក់សម្រាប់ស្ថាបត្យកម្ម Intel® ដើម្បីបង្កើនការបណ្តុះបណ្តាលគំរូ និងបង្កើនភាពត្រឹមត្រូវសម្រាប់ការព្យាករណ៍កាន់តែប្រសើរ។
កំណត់រចនាសម្ព័ន្ធប្រព័ន្ធរបស់អ្នក – ប្រអប់ឧបករណ៍វិភាគ Intel® AI
ប្រសិនបើអ្នកមិនទាន់បានដំឡើង AI Analytics Toolkit ទេ សូមមើលការដំឡើង Intel® AI Analytics Toolkit។ ដើម្បីកំណត់រចនាសម្ព័ន្ធប្រព័ន្ធរបស់អ្នក សូមកំណត់អថេរបរិស្ថាន មុនពេលបន្ត។
កំណត់អថេរបរិស្ថានសម្រាប់ការអភិវឌ្ឍន៍ CLI
សម្រាប់ធ្វើការនៅ Command Line Interface (CLI) ឧបករណ៍នៅក្នុងប្រអប់ឧបករណ៍ oneAPI ត្រូវបានកំណត់រចនាសម្ព័ន្ធតាមរយៈ
អថេរបរិស្ថាន។ ដើម្បីកំណត់អថេរបរិស្ថានដោយស្វែងរកស្គ្រីប setvars៖
ជម្រើសទី 1៖ ប្រភព setvars.sh ម្តងក្នុងមួយវគ្គ
ប្រភព setvars.sh រាល់ពេលដែលអ្នកបើកបង្អួចស្ថានីយថ្មី៖
អ្នកអាចស្វែងរកស្គ្រីប setvars.sh នៅក្នុងថត root នៃការដំឡើង oneAPI របស់អ្នក ដែលជាធម្មតា /opt/intel/oneapi/ សម្រាប់ការដំឡើងប្រព័ន្ធធំទូលាយ និង ~/intel/oneapi/ សម្រាប់ការដំឡើងឯកជន។
សម្រាប់ការដំឡើងប្រព័ន្ធធំទូលាយ (ទាមទារសិទ្ធិជា root ឬ sudo)៖
- . /opt/intel/oneapi/setvars.sh
សម្រាប់ការដំឡើងឯកជន៖
- . ~/intel/oneapi/setvars.sh
ជម្រើសទី 2៖ ការដំឡើងតែម្តងសម្រាប់ setvars.sh
ដើម្បីឱ្យបរិស្ថានរៀបចំដោយស្វ័យប្រវត្តិសម្រាប់គម្រោងរបស់អ្នក រួមបញ្ចូលប្រភពពាក្យបញ្ជា
/setvars.sh នៅក្នុងស្គ្រីបចាប់ផ្តើមដែលវានឹងត្រូវបានហៅដោយស្វ័យប្រវត្តិ (ជំនួស
ជាមួយនឹងផ្លូវទៅកាន់ទីតាំងដំឡើង oneAPI របស់អ្នក)។ ទីតាំងដំឡើងលំនាំដើមគឺ /opt/
intel/oneapi/ សម្រាប់ការដំឡើងប្រព័ន្ធធំទូលាយ (ទាមទារសិទ្ធិជា root ឬ sudo) និង ~/intel/oneapi/ សម្រាប់ការដំឡើងឯកជន។
សម្រាប់អតីតampដូច្នេះ អ្នកអាចបន្ថែមប្រភព ពាក្យបញ្ជា /setvars.sh ទៅ ~/.bashrc ឬ ~/.bashrc_pro របស់អ្នក។file ឬ ~/.profile file. ដើម្បីធ្វើឱ្យការកំណត់ជាអចិន្ត្រៃយ៍សម្រាប់គណនីទាំងអស់នៅលើប្រព័ន្ធរបស់អ្នក សូមបង្កើតស្គ្រីប .sh មួយបន្ទាត់នៅក្នុង /etc/pro នៃប្រព័ន្ធរបស់អ្នកfileថតឯកសារ .d ដែលប្រភព setvars.sh (សម្រាប់ព័ត៌មានលម្អិត សូមមើលឯកសារ Ubuntu ស្តីពីអថេរបរិស្ថាន)។
ចំណាំ
ស្គ្រីប setvars.sh អាចត្រូវបានគ្រប់គ្រងដោយប្រើការកំណត់ fileដែលមានប្រយោជន៍ជាពិសេសប្រសិនបើអ្នកត្រូវការចាប់ផ្តើមកំណែជាក់លាក់នៃបណ្ណាល័យ ឬកម្មវិធីចងក្រង ជាជាងកំណត់លំនាំដើមទៅកំណែ "ចុងក្រោយបំផុត"។ សម្រាប់ព័ត៌មានលម្អិត សូមមើលការប្រើប្រាស់ការកំណត់រចនាសម្ព័ន្ធ File ដើម្បីគ្រប់គ្រង Setvars.sh.. ប្រសិនបើអ្នកត្រូវការដំឡើងបរិស្ថាននៅក្នុងសែលដែលមិនមែនជា POSIX សូម seeoneAPI Development Environment Setup សម្រាប់ជម្រើសកំណត់រចនាសម្ព័ន្ធបន្ថែមទៀត។
ជំហានបន្ទាប់
- ប្រសិនបើអ្នកមិនប្រើ Conda ឬអភិវឌ្ឍន៍សម្រាប់ GPU បង្កើត និងដំណើរការ Sampគម្រោងឡេ។
- សម្រាប់អ្នកប្រើប្រាស់ Conda សូមបន្តទៅផ្នែកបន្ទាប់។
- សម្រាប់ការអភិវឌ្ឍន៍លើ GPU សូមបន្តទៅកាន់អ្នកប្រើប្រាស់ GPU
បរិស្ថាន Conda នៅក្នុងប្រអប់ឧបករណ៍នេះ។
មានបរិស្ថាន conda ជាច្រើនរួមបញ្ចូលនៅក្នុង AI Kit ។ បរិយាកាសនីមួយៗត្រូវបានពិពណ៌នានៅក្នុងតារាងខាងក្រោម។ នៅពេលដែលអ្នកបានកំណត់អថេរបរិស្ថានទៅជាបរិស្ថាន CLI ដូចដែលបានណែនាំពីមុនមក នោះអ្នកអាចធ្វើឱ្យបរិស្ថាន conda ផ្សេងគ្នាតាមតម្រូវការតាមរយៈពាក្យបញ្ជាខាងក្រោម៖
- conda ធ្វើឱ្យសកម្ម
សម្រាប់ព័ត៌មានបន្ថែម សូមស្វែងយល់ពីបរិស្ថាននីមួយៗដែលទាក់ទងនឹងការចាប់ផ្ដើម Sample ភ្ជាប់ក្នុងតារាងខាងក្រោម។
ប្រើមុខងារ Conda Clone ដើម្បីបន្ថែមកញ្ចប់ជាអ្នកប្រើប្រាស់ដែលមិនមែនជា Root
កញ្ចប់ឧបករណ៍ Intel AI Analytics ត្រូវបានដំឡើងនៅក្នុងថត oneapi ដែលទាមទារសិទ្ធិជា root ដើម្បីគ្រប់គ្រង។ អ្នកប្រហែលជាចង់បន្ថែម និងរក្សាកញ្ចប់ថ្មីដោយប្រើ Conda* ប៉ុន្តែអ្នកមិនអាចធ្វើដូច្នេះដោយគ្មានការចូលជា root ។ ឬអ្នកអាចមានសិទ្ធិចូលជា root ប៉ុន្តែមិនចង់បញ្ចូលពាក្យសម្ងាត់ root រាល់ពេលដែលអ្នកធ្វើឱ្យ Conda សកម្ម។
ដើម្បីគ្រប់គ្រងបរិស្ថានរបស់អ្នកដោយមិនប្រើការចូលប្រើជា root សូមប្រើមុខងារក្លូន Conda ដើម្បីក្លូនកញ្ចប់ដែលអ្នកត្រូវការទៅកាន់ថតឯកសារដែលនៅក្រៅថត /opt/intel/oneapi/៖
- ពីបង្អួចស្ថានីយដូចគ្នាដែលអ្នកបានដំណើរការ setvars.sh កំណត់អត្តសញ្ញាណបរិស្ថាន Conda នៅលើប្រព័ន្ធរបស់អ្នក៖
- បញ្ជី conda env
អ្នកនឹងឃើញលទ្ធផលស្រដៀងគ្នានេះ៖
- បញ្ជី conda env
- ប្រើមុខងារក្លូន ដើម្បីក្លូនបរិស្ថានទៅកាន់ថតថ្មីមួយ។ នៅក្នុងអតីតampខាងក្រោម បរិស្ថានថ្មីត្រូវបានដាក់ឈ្មោះថា usr_intelpython ហើយបរិស្ថានដែលកំពុងត្រូវបានក្លូនត្រូវបានដាក់ឈ្មោះថា base (ដូចបង្ហាញក្នុងរូបភាពខាងលើ)។
- conda បង្កើត –name usr_intelpython –clone base
ព័ត៌មានលម្អិតក្លូននឹងបង្ហាញ៖
- conda បង្កើត –name usr_intelpython –clone base
- ធ្វើឱ្យបរិយាកាសថ្មីសកម្ម ដើម្បីបើកលទ្ធភាពបន្ថែមកញ្ចប់។ conda ធ្វើឱ្យ usr_intelpython សកម្ម
- ផ្ទៀងផ្ទាត់ថាបរិយាកាសថ្មីសកម្ម។ បញ្ជី conda env
ឥឡូវនេះអ្នកអាចអភិវឌ្ឍដោយប្រើបរិស្ថាន Conda សម្រាប់ Intel Distribution សម្រាប់ Python ។ - ដើម្បីធ្វើឱ្យបរិយាកាស TensorFlow* ឬ PyTorch* សកម្ម៖
TensorFlow
- conda ធ្វើឱ្យ tensorflow សកម្ម
PyTorch
- conda ធ្វើឱ្យ pytorch សកម្ម
ជំហានបន្ទាប់
- ប្រសិនបើអ្នកមិនបង្កើត GPU ទេ បង្កើត និងដំណើរការ Sampគម្រោងឡេ។
- សម្រាប់ការអភិវឌ្ឍន៍លើ GPU សូមបន្តទៅកាន់អ្នកប្រើប្រាស់ GPU ។
អ្នកប្រើប្រាស់ GPU
សម្រាប់អ្នកដែលកំពុងអភិវឌ្ឍលើ GPU សូមអនុវត្តតាមជំហានទាំងនេះ៖
ដំឡើងកម្មវិធីបញ្ជា GPU
ប្រសិនបើអ្នកធ្វើតាមការណែនាំនៅក្នុងការណែនាំអំពីការដំឡើង ដើម្បីដំឡើងកម្មវិធីបញ្ជា GPU អ្នកអាចរំលងជំហាននេះ។ ប្រសិនបើអ្នកមិនបានដំឡើងកម្មវិធីបញ្ជាទេ សូមធ្វើតាមការណែនាំនៅក្នុងការណែនាំអំពីការដំឡើង។
បន្ថែមអ្នកប្រើប្រាស់ទៅក្រុមវីដេអូ
សម្រាប់បន្ទុកការងាររបស់ GPU អ្នកប្រើប្រាស់ដែលមិនមែនជា root (ធម្មតា) ជាធម្មតាមិនមានសិទ្ធិចូលប្រើឧបករណ៍ GPU ទេ។ ត្រូវប្រាកដថាបន្ថែមអ្នកប្រើប្រាស់ធម្មតារបស់អ្នកទៅក្នុងក្រុមវីដេអូ។ បើមិនដូច្នេះទេ ប្រព័ន្ធគោលពីរដែលបានចងក្រងសម្រាប់ឧបករណ៍ GPU នឹងបរាជ័យនៅពេលប្រតិបត្តិដោយអ្នកប្រើប្រាស់ធម្មតា។ ដើម្បីដោះស្រាយបញ្ហានេះ សូមបន្ថែមអ្នកប្រើប្រាស់ដែលមិនមែនជា root ទៅក្នុងក្រុមវីដេអូ៖
- sudo usermod -a -G វីដេអូ
បិទ Hangcheck
សម្រាប់កម្មវិធីដែលមាន GPU ដំណើរការយូរក្នុងការគណនាបន្ទុកការងារនៅក្នុងបរិស្ថានដើម សូមបិទ hangcheck ។ វាមិនត្រូវបានណែនាំសម្រាប់និម្មិត ឬការប្រើប្រាស់ស្តង់ដារផ្សេងទៀតនៃ GPU ដូចជាការលេងហ្គេមជាដើម។
បន្ទុកការងារដែលចំណាយពេលលើសពី XNUMX វិនាទីសម្រាប់ផ្នែករឹង GPU ដើម្បីប្រតិបត្តិគឺជាបន្ទុកការងារដែលដំណើរការយូរ។ តាមលំនាំដើម ខ្សែស្រលាយនីមួយៗដែលមានលក្ខណៈគ្រប់គ្រាន់ជាបន្ទុកការងារយូរត្រូវបានចាត់ទុកថាព្យួរ ហើយត្រូវបានបញ្ចប់។ តាមរយៈការបិទរយៈពេលផុតម៉ោងព្យួរ អ្នកអាចចៀសវាងបញ្ហានេះ។
ចំណាំ៖ ប្រសិនបើខឺណែលត្រូវបានធ្វើបច្ចុប្បន្នភាព ការព្យួរការត្រួតពិនិត្យត្រូវបានបើកដោយស្វ័យប្រវត្តិ។ ដំណើរការនីតិវិធីខាងក្រោមបន្ទាប់ពីរាល់ការធ្វើបច្ចុប្បន្នភាពខឺណែល ដើម្បីធានាថា hangcheck ត្រូវបានបិទ។
- បើកស្ថានីយ។
- បើកចំហរ file ក្នុង /etc/default.
- នៅក្នុងព្រៃ fileស្វែងរកបន្ទាត់ GRUB_CMDLINE_LINUX_DEFAULT=”” ។
- បញ្ចូលអត្ថបទនេះរវាងសម្រង់ (“”)៖
- ដំណើរការពាក្យបញ្ជានេះ៖
sudo update-grub - ចាប់ផ្ដើមប្រព័ន្ធឡើងវិញ។ Hangcheck នៅតែបិទ។
ជំហានបន្ទាប់
ឥឡូវនេះអ្នកបានកំណត់រចនាសម្ព័ន្ធប្រព័ន្ធរបស់អ្នកហើយ សូមបន្តទៅ Build និង Run a Sampគម្រោងឡេ។
បង្កើត និងដំណើរការ Sampដោយប្រើបន្ទាត់ពាក្យបញ្ជា
កញ្ចប់ឧបករណ៍វិភាគ Intel® AI
នៅក្នុងផ្នែកនេះ អ្នកនឹងដំណើរការគម្រោង "Hello World" ដ៏សាមញ្ញមួយ ដើម្បីស្គាល់ខ្លួនអ្នកជាមួយនឹងដំណើរការនៃគម្រោងសាងសង់ ហើយបន្ទាប់មកបង្កើតគម្រោងផ្ទាល់ខ្លួនរបស់អ្នក។
ចំណាំ៖ ប្រសិនបើអ្នកមិនទាន់បានកំណត់រចនាសម្ព័ន្ធបរិស្ថានអភិវឌ្ឍន៍របស់អ្នកទេ សូមចូលទៅកាន់ Configure your system បន្ទាប់មកត្រឡប់ទៅទំព័រនេះ។ ប្រសិនបើអ្នកបានបញ្ចប់ជំហានដើម្បីកំណត់រចនាសម្ព័ន្ធប្រព័ន្ធរបស់អ្នករួចហើយ សូមបន្តជាមួយជំហានខាងក្រោម។
អ្នកអាចប្រើ terminal window ឬ Visual Studio Code* នៅពេលធ្វើការពីបន្ទាត់ពាក្យបញ្ជា។ សម្រាប់ព័ត៌មានលម្អិតអំពីរបៀបប្រើ VS Code ក្នុងស្រុក សូមមើលការប្រើប្រាស់មូលដ្ឋាននៃ Visual Studio Code ជាមួយ oneAPI នៅលើ Linux*។ ដើម្បីប្រើ VS Code ពីចម្ងាយ សូមមើល Remote Visual Studio Code Development with oneAPI នៅលើ Linux*។
បង្កើត និងដំណើរការ Sampគម្រោងឡេ
សamples ខាងក្រោមត្រូវតែត្រូវបានក្លូនទៅក្នុងប្រព័ន្ធរបស់អ្នក មុនពេលអ្នកអាចបង្កើត sampគម្រោង៖
ដើម្បីមើលបញ្ជីនៃសមាសភាគដែលគាំទ្រ CMake សូមមើលប្រើ CMake ទៅជាមួយកម្មវិធី oneAPI ។
បង្កើតគម្រោងផ្ទាល់ខ្លួនរបស់អ្នក។
គ្មានការកែប្រែពិសេសចំពោះគម្រោង Python ដែលមានស្រាប់របស់អ្នកត្រូវបានទាមទារ ដើម្បីចាប់ផ្តើមប្រើប្រាស់ពួកវាជាមួយប្រអប់ឧបករណ៍នេះទេ។ សម្រាប់គម្រោងថ្មី ដំណើរការនេះធ្វើតាមយ៉ាងដិតដល់នូវដំណើរការដែលប្រើសម្រាប់បង្កើត sampគម្រោងហេឡូពិភពលោក។ យោងទៅ Hello World README files សម្រាប់ការណែនាំ។
ការអនុវត្តអតិបរមា
អ្នកអាចទទួលបានឯកសារដើម្បីជួយអ្នកបង្កើនការអនុវត្តសម្រាប់ TensorFlow ឬ PyTorch ។
កំណត់រចនាសម្ព័ន្ធបរិស្ថានរបស់អ្នក។
ចំណាំ៖ ប្រសិនបើបរិស្ថាននិម្មិតរបស់អ្នកមិនអាចប្រើបាន ឬប្រសិនបើអ្នកចង់បន្ថែមកញ្ចប់ទៅបរិយាកាសនិម្មិតរបស់អ្នក សូមប្រាកដថាអ្នកបានបញ្ចប់ជំហានក្នុងការប្រើប្រាស់មុខងារក្លូន Conda ដើម្បីបន្ថែមកញ្ចប់ជាអ្នកប្រើប្រាស់ដែលមិនមែនជា root ។
ប្រសិនបើអ្នកកំពុងអភិវឌ្ឍនៅខាងក្រៅកុងតឺន័រ សូមប្រភពស្គ្រីបខាងក្រោមដើម្បីប្រើ Intel® Distribution for Python*៖
-
- /setvars.sh
- កន្លែងណា ជាកន្លែងដែលអ្នកបានដំឡើងប្រអប់ឧបករណ៍នេះ។ តាមលំនាំដើម ថតដំឡើងគឺ៖
- ការដំឡើងជា Root ឬ sudo៖ /opt/intel/oneapi
- ការដំឡើងអ្នកប្រើប្រាស់ក្នុងស្រុក៖ ~/intel/oneapi
ចំណាំ៖ ស្គ្រីប setvars.sh អាចត្រូវបានគ្រប់គ្រងដោយប្រើការកំណត់ fileដែលមានប្រយោជន៍ជាពិសេសប្រសិនបើអ្នកត្រូវការចាប់ផ្តើមកំណែជាក់លាក់នៃបណ្ណាល័យ ឬកម្មវិធីចងក្រង ជាជាងកំណត់លំនាំដើមទៅកំណែ "ចុងក្រោយបំផុត"។ សម្រាប់ព័ត៌មានលម្អិត សូមមើលការប្រើប្រាស់ការកំណត់រចនាសម្ព័ន្ធ File ដើម្បីគ្រប់គ្រង Setvars.sh ។ ប្រសិនបើអ្នកត្រូវការដំឡើងបរិស្ថាននៅក្នុងសែលដែលមិនមែនជា POSIX សូមមើលការដំឡើងបរិស្ថានអភិវឌ្ឍន៍ OneAPI សម្រាប់ជម្រើសកំណត់រចនាសម្ព័ន្ធបន្ថែមទៀត។
ដើម្បីប្តូរបរិស្ថាន អ្នកត្រូវតែបិទបរិស្ថានសកម្មជាមុនសិន។
ខាងក្រោមនេះ example បង្ហាញពីការកំណត់រចនាសម្ព័ន្ធបរិស្ថាន ធ្វើឱ្យ TensorFlow* សកម្ម ហើយបន្ទាប់មកត្រឡប់ទៅ Intel Distribution សម្រាប់ Python៖
ទាញយកកុងតឺន័រ
កញ្ចប់ឧបករណ៍វិភាគ Intel® AI
កុងតឺន័រអនុញ្ញាតឱ្យអ្នករៀបចំ និងកំណត់រចនាសម្ព័ន្ធបរិស្ថានសម្រាប់ការសាងសង់ ដំណើរការ និងបង្កើតទម្រង់កម្មវិធី OneAPI និងចែកចាយពួកវាដោយប្រើរូបភាព៖
- អ្នកអាចដំឡើងរូបភាពដែលមានបរិស្ថានដែលបានកំណត់ជាមុនជាមួយឧបករណ៍ទាំងអស់ដែលអ្នកត្រូវការ បន្ទាប់មកអភិវឌ្ឍនៅក្នុងបរិស្ថាននោះ។
- អ្នកអាចរក្សាទុកបរិស្ថាន និងប្រើរូបភាពដើម្បីផ្លាស់ទីបរិស្ថាននោះទៅម៉ាស៊ីនផ្សេងទៀតដោយមិនចាំបាច់ដំឡើងបន្ថែម។
- អ្នកអាចរៀបចំកុងតឺន័រជាមួយនឹងសំណុំភាសាផ្សេងៗគ្នា និងពេលវេលាដំណើរការ ឧបករណ៍វិភាគ ឬឧបករណ៍ផ្សេងទៀតតាមតម្រូវការ។
ទាញយក Docker* រូបភាព
អ្នកអាចទាញយករូបភាព Docker* ពី Containers Repository។
ចំណាំ៖ រូបភាព Docker គឺ ~5 GB ហើយអាចចំណាយពេល ~15 នាទីដើម្បីទាញយក។ វានឹងត្រូវការទំហំថាស 25 GB ។
- កំណត់រូបភាព៖
image=intel/oneapi-aikit docker ទាញ “$image” - ទាញរូបភាព។
docker ទាញ “$image”
នៅពេលដែលរូបភាពរបស់អ្នកត្រូវបានទាញយក សូមបន្តទៅកាន់ ការប្រើប្រាស់កុងតឺន័រជាមួយនឹងបន្ទាត់ពាក្យបញ្ជា។
ការប្រើប្រាស់កុងតឺន័រជាមួយបន្ទាត់ពាក្យបញ្ជា
Intel® AI Analytics Toolkit ទាញយកធុងដែលបង្កើតជាមុនដោយផ្ទាល់។ ពាក្យបញ្ជាខាងក្រោមសម្រាប់ស៊ីភីយូនឹងទុកឱ្យអ្នកនៅប្រអប់បញ្ចូលពាក្យបញ្ជានៅខាងក្នុងកុងតឺន័រក្នុងរបៀបអន្តរកម្ម។
ស៊ីភីយូ
image=intel/oneapi-aikit docker ដំណើរការ -it “$image”
ការប្រើប្រាស់ Intel® Advisor, Intel® Inspector ឬ VTune™ ជាមួយនឹងកុងតឺន័រ
នៅពេលប្រើឧបករណ៍ទាំងនេះ សមត្ថភាពបន្ថែមត្រូវតែផ្តល់ទៅឱ្យកុងតឺន័រ៖ –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE
- docker ដំណើរការ –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE \\ –device=/dev/dri -it “$image”
ការប្រើប្រាស់ប្រព័ន្ធ Cloud CI
ប្រព័ន្ធ Cloud CI អនុញ្ញាតឱ្យអ្នកបង្កើត និងសាកល្បងកម្មវិធីរបស់អ្នកដោយស្វ័យប្រវត្តិ។ សូមមើល repo នៅក្នុង github សម្រាប់ examples នៃការកំណត់រចនាសម្ព័ន្ធ files ដែលប្រើ oneAPI សម្រាប់ប្រព័ន្ធ CI ពពកដ៏ពេញនិយម។
ការដោះស្រាយបញ្ហាសម្រាប់ឧបករណ៍វិភាគ Intel® AI
សេចក្តីជូនដំណឹង និងការបដិសេធ
បច្ចេកវិទ្យារបស់ Intel អាចតម្រូវឱ្យមានការបើកដំណើរការផ្នែករឹង កម្មវិធី ឬសេវាកម្ម។ គ្មានផលិតផល ឬសមាសធាតុណាមួយអាចធានាបានដាច់ខាត។
ការចំណាយ និងលទ្ធផលរបស់អ្នកអាចប្រែប្រួល។
© សាជីវកម្ម Intel ។ Intel, និមិត្តសញ្ញា Intel និងសញ្ញា Intel ផ្សេងទៀតគឺជាពាណិជ្ជសញ្ញារបស់ Intel Corporation ឬក្រុមហ៊ុនបុត្រសម្ព័ន្ធរបស់ខ្លួន។ ឈ្មោះ និងម៉ាកផ្សេងទៀតអាចត្រូវបានអះអាងថាជាកម្មសិទ្ធិរបស់អ្នកដទៃ។
ព័ត៌មានអំពីផលិតផល និងការអនុវត្ត
ការអនុវត្តប្រែប្រួលតាមការប្រើប្រាស់ ការកំណត់រចនាសម្ព័ន្ធ និងកត្តាផ្សេងៗទៀត។ ស្វែងយល់បន្ថែមនៅ www.Intel.com/PerformanceIndex.
សេចក្តីជូនដំណឹងស្តីពីការកែសម្រួលលេខឆ្នាំ២០២០
គ្មានអាជ្ញាប័ណ្ណ (បញ្ជាក់ ឬបង្កប់ន័យដោយបិទបាំង ឬបើមិនដូច្នេះទេ) ចំពោះកម្មសិទ្ធិបញ្ញាណាមួយត្រូវបានផ្តល់ដោយឯកសារនេះ។ ផលិតផលដែលបានពិពណ៌នាអាចមានពិការភាពក្នុងការរចនា ឬកំហុសដែលគេស្គាល់ថាជា errata ដែលអាចបណ្តាលឱ្យផលិតផលខុសពីលក្ខណៈបច្ចេកទេសដែលបានបោះពុម្ពផ្សាយ។ កំហុសកំណត់លក្ខណៈបច្ចុប្បន្នអាចរកបានតាមការស្នើសុំ។
Intel បដិសេធរាល់ការធានាដោយប្រយោល និងដោយប្រយោល រួមទាំងដោយគ្មានដែនកំណត់ ការធានាដោយបង្កប់ន័យនៃភាពអាចធ្វើពាណិជ្ជកម្ម ភាពរឹងមាំសម្រាប់គោលបំណងជាក់លាក់មួយ និងការមិនរំលោភបំពាន ព្រមទាំងការធានាណាមួយដែលកើតឡើងពីដំណើរការដំណើរការ វគ្គនៃការជួញដូរ ឬការប្រើប្រាស់ក្នុងពាណិជ្ជកម្ម។
ឯកសារ/ធនធាន
![]() |
កញ្ចប់ឧបករណ៍វិភាគ Intel AI សម្រាប់លីនុច [pdf] ការណែនាំអ្នកប្រើប្រាស់ AI Analytics Toolkit សម្រាប់ Linux, AI Analytics Toolkit, Analytics Toolkit for Linux, Analytics Toolkit, Toolkit |