intel សម្រេចបានរហូតដល់ 4.96 ដងនៃ BERT-Large Inference User Guide
ស្វែងយល់ពីរបៀបដើម្បីសម្រេចបានរហូតដល់ទៅ 4.96 ដងនៃ BERT-Large inference ជាមួយ 3rd Gen Intel Xeon Scalable processors នៅក្នុង M6i instances។ មគ្គុទ្ទេសក៍អ្នកប្រើប្រាស់នេះប្រៀបធៀបការអនុវត្តរបស់ M6i និង M6g instances ជាមួយនឹងប្រព័ន្ធដំណើរការ AWS Graviton2 សម្រាប់បន្ទុកការងារ inference machine learning ភាសាធម្មជាតិ។ ស្វែងយល់ពីរបៀបដែលអាជីវកម្មអាចផ្តល់នូវបទពិសោធន៍កាន់តែលឿន ខណៈពេលដែលទទួលបានប្រតិបត្តិការកាន់តែប្រសើរឡើងក្នុងមួយដុល្លារជាមួយនឹងឧទាហរណ៍ M6i ។ ស្វែងយល់បន្ថែមអំពីម៉ូដែល BERT-Large និងរបៀបសាកល្បងដំណើរការរបស់វាដោយប្រើ TensorFlow framework។