intelLOGO

intel AI Analytics Toolkit για Linux

Εργαλειοθήκη AI Analytics για Linux

Πληροφορίες προϊόντος

Το AI Kit είναι ένα κιτ εργαλείων που περιλαμβάνει πολλαπλά περιβάλλοντα conda για μηχανική μάθηση και έργα βαθιάς μάθησης. Περιλαμβάνει περιβάλλοντα για TensorFlow, PyTorch και Intel oneCCL Bindings. Επιτρέπει στους χρήστες να διαμορφώσουν το σύστημά τους ορίζοντας μεταβλητές περιβάλλοντος, χρησιμοποιώντας Conda για να προσθέσουν πακέτα, εγκαθιστώντας προγράμματα οδήγησης γραφικών και απενεργοποιώντας το hangcheck. Η εργαλειοθήκη μπορεί να χρησιμοποιηθεί σε μια διεπαφή γραμμής εντολών (CLI) και μπορεί εύκολα να ενσωματωθεί σε υπάρχοντα έργα χωρίς ιδιαίτερες τροποποιήσεις.

Χρήση προϊόντος

  1. Διαμορφώστε το σύστημά σας ορίζοντας μεταβλητές περιβάλλοντος πριν συνεχίσετε.
  2. Για να εργαστείτε σε μια διεπαφή γραμμής εντολών (CLI), χρησιμοποιήστε τη δέσμη ενεργειών setvars.sh για να διαμορφώσετε τα εργαλεία στα κιτ εργαλείων oneAPI μέσω μεταβλητών περιβάλλοντος. Μπορείτε να προμηθεύσετε το σενάριο setvars.sh μία φορά ανά περίοδο λειτουργίας ή κάθε φορά που ανοίγετε ένα νέο παράθυρο τερματικού. Το σενάριο setvars.sh βρίσκεται στον ριζικό φάκελο της εγκατάστασης του oneAPI.
  3. Ενεργοποιήστε διαφορετικά περιβάλλοντα conda όπως απαιτείται μέσω της εντολής «conda activate ". Το κιτ AI περιλαμβάνει περιβάλλοντα conda για TensorFlow (CPU), TensorFlow με επέκταση Intel για Sample TensorFlow (GPU), PyTorch με Intel Extension για PyTorch (XPU) και Intel oneCCL Bindings για PyTorch (CPU).
  4. Εξερευνήστε τα σχετικά με κάθε περιβάλλον Ξεκινώντας Sampπαρατίθενται στον πίνακα που παρέχεται στο εγχειρίδιο χρήστη για περισσότερες πληροφορίες σχετικά με τον τρόπο χρήσης κάθε περιβάλλοντος.

Οι παρακάτω οδηγίες προϋποθέτουν ότι έχετε εγκαταστήσει το λογισμικό Intel® oneAPI. Ανατρέξτε στη σελίδα Intel AI Analytics Toolkit για επιλογές εγκατάστασης. Ακολουθήστε αυτά τα βήματα για να δημιουργήσετε και να εκτελέσετε ωςampμε το Intel® AI Analytics Toolkit (AI Kit):

  1. Διαμορφώστε το σύστημά σας.
  2. Κατασκευάστε και εκτελέστε ένα Sample.

ΣΗΜΕΙΩΜΑ: Οι τυπικές εγκαταστάσεις Python είναι πλήρως συμβατές με το AI Kit, αλλά προτιμάται η Intel® Distribution για Python*.
Δεν απαιτούνται ειδικές τροποποιήσεις στα υπάρχοντα έργα σας για να αρχίσετε να τα χρησιμοποιείτε με αυτήν την εργαλειοθήκη.

Στοιχεία αυτής της εργαλειοθήκης

Το κιτ AI περιλαμβάνει

  • Βελτιστοποίηση Intel® για PyTorch*: Η Βιβλιοθήκη Deep Neural Network (oneDNN) της Intel® oneAPI περιλαμβάνεται στο PyTorch ως η προεπιλεγμένη βιβλιοθήκη μαθηματικού πυρήνα για βαθιά εκμάθηση.
  • Επέκταση Intel® για PyTorch: Η Επέκταση Intel® για PyTorch* επεκτείνει τις δυνατότητες του PyTorch* με ενημερωμένες δυνατότητες και βελτιστοποιήσεις για επιπλέον ενίσχυση της απόδοσης του υλικού Intel.
  • Intel® Optimization for TensorFlow*: Αυτή η έκδοση ενσωματώνει primitives από το oneDNN στο χρόνο εκτέλεσης του TensorFlow για ταχεία απόδοση.
  • Intel® Extension for TensorFlow: Η Intel® Extension for TensorFlow* είναι μια ετερογενής, υψηλής απόδοσης πρόσθετη επέκτασης βαθιάς εκμάθησης που βασίζεται στη διεπαφή TensorFlow PluggableDevice. Αυτή η προσθήκη επέκτασης φέρνει συσκευές Intel XPU (GPU, CPU, κ.λπ.) στην κοινότητα ανοιχτού κώδικα TensorFlow για επιτάχυνση φόρτου εργασίας AI.
  • Intel® Distribution for Python*: Αποκτήστε ταχύτερη απόδοση εφαρμογής Python αμέσως, με ελάχιστες ή καθόλου αλλαγές στον κώδικά σας. Αυτή η διανομή είναι ενσωματωμένη με τις βιβλιοθήκες απόδοσης Intel®, όπως η Βιβλιοθήκη Math Kernel της Intel® oneAPI και η Βιβλιοθήκη Αναλύσεων Δεδομένων Intel®oneAPI.
  • Intel® Distribution of Modin* (διαθέσιμο μόνο μέσω του Anaconda), το οποίο σας δίνει τη δυνατότητα να κλιμακώνετε απρόσκοπτα την προεπεξεργασία σε πολλούς κόμβους χρησιμοποιώντας αυτήν την έξυπνη, κατανεμημένη βιβλιοθήκη πλαισίων δεδομένων με το ίδιο API με τα panda. Αυτή η διανομή είναι διαθέσιμη μόνο με την εγκατάσταση του Intel® AI Analytics Toolkit με το Conda* Package Manager.
  • Intel® Neural Compressor: αναπτύξτε γρήγορα λύσεις συμπερασμάτων χαμηλής ακρίβειας σε δημοφιλή πλαίσια βαθιάς μάθησης όπως το TensorFlow*, το PyTorch*, το MXNet* και το ONNX* (Open Neural Network Exchange).
  • Intel® Extension for Scikit-learn*: Ένας απρόσκοπτος τρόπος για να επιταχύνετε την εφαρμογή Scikit-learn χρησιμοποιώντας τη βιβλιοθήκη ανάλυσης δεδομένων Intel® oneAPI Data Analytics (oneDAL).
    Η επιδιόρθωση του scikit-learn το καθιστά ένα κατάλληλο πλαίσιο μηχανικής μάθησης για την αντιμετώπιση προβλημάτων της πραγματικής ζωής.
  • XGBoost Βελτιστοποιημένο από την Intel: Αυτό το γνωστό πακέτο μηχανικής εκμάθησης για δέντρα αποφάσεων με ενίσχυση κλίσης περιλαμβάνει απρόσκοπτη επιτάχυνση για αρχιτεκτονικές Intel® για να επιταχύνει σημαντικά την εκπαίδευση του μοντέλου και να βελτιώσει την ακρίβεια για καλύτερες προβλέψεις.

Διαμόρφωση του συστήματός σας – Intel® AI Analytics Toolkit

Εάν δεν έχετε ήδη εγκαταστήσει το AI Analytics Toolkit, ανατρέξτε στην ενότητα Εγκατάσταση του Intel® AI Analytics Toolkit. Για να διαμορφώσετε το σύστημά σας, ορίστε μεταβλητές περιβάλλοντος πριν συνεχίσετε.

 

Ορισμός μεταβλητών περιβάλλοντος για την ανάπτυξη CLI
Για εργασία σε μια διεπαφή γραμμής εντολών (CLI), τα εργαλεία στα κιτ εργαλείων oneAPI διαμορφώνονται μέσω
μεταβλητές περιβάλλοντος. Για να ορίσετε μεταβλητές περιβάλλοντος προμηθεύοντας το σενάριο setvars:

Επιλογή 1: Πηγή setvars.sh μία φορά ανά περίοδο λειτουργίας
Πηγή setvars.sh κάθε φορά που ανοίγετε ένα νέο παράθυρο τερματικού:

Μπορείτε να βρείτε το σενάριο setvars.sh στον ριζικό φάκελο της εγκατάστασης του oneAPI, ο οποίος είναι συνήθως /opt/intel/oneapi/ για εγκαταστάσεις σε όλο το σύστημα και ~/intel/oneapi/ για ιδιωτικές εγκαταστάσεις.

Για εγκαταστάσεις σε όλο το σύστημα (απαιτούνται δικαιώματα root ή sudo):

  • . /opt/intel/oneapi/setvars.sh

Για ιδιωτικές εγκαταστάσεις:

  • . ~/intel/oneapi/setvars.sh

Επιλογή 2: Ρύθμιση μίας χρήσης για το setvars.sh
Για να ρυθμίσετε αυτόματα το περιβάλλον για τα έργα σας, συμπεριλάβετε την πηγή εντολής
/setvars.sh σε ένα σενάριο εκκίνησης όπου θα κληθεί αυτόματα (αντικαταστήστε
με τη διαδρομή προς την τοποθεσία εγκατάστασης του oneAPI). Οι προεπιλεγμένες θέσεις εγκατάστασης είναι /opt/
intel/oneapi/ για εγκαταστάσεις σε όλο το σύστημα (απαιτεί δικαιώματα root ή sudo) και ~/intel/oneapi/ για ιδιωτικές εγκαταστάσεις.
Για π.χample, μπορείτε να προσθέσετε την πηγή Η εντολή /setvars.sh στο ~/.bashrc ή στο ~/.bashrc_profile ή ~/.profile file. Για να κάνετε τις ρυθμίσεις μόνιμες για όλους τους λογαριασμούς στο σύστημά σας, δημιουργήστε ένα σενάριο .sh μιας γραμμής στο /etc/pro του συστήματός σαςfileΦάκελος .d που προέρχεται από το setvars.sh (για περισσότερες λεπτομέρειες, ανατρέξτε στην τεκμηρίωση του Ubuntu σχετικά με τις μεταβλητές περιβάλλοντος).

ΣΗΜΕΙΩΜΑ
Η διαχείριση του σεναρίου setvars.sh μπορεί να γίνει χρησιμοποιώντας μια διαμόρφωση file, το οποίο είναι ιδιαίτερα χρήσιμο εάν χρειάζεται να αρχικοποιήσετε συγκεκριμένες εκδόσεις βιβλιοθηκών ή του μεταγλωττιστή, αντί να κάνετε προεπιλογή στην "πιο πρόσφατη" έκδοση. Για περισσότερες λεπτομέρειες, ανατρέξτε στην ενότητα Χρήση διαμόρφωσης File για να διαχειριστείτε το Setvars.sh.. Εάν χρειάζεται να ρυθμίσετε το περιβάλλον σε κέλυφος που δεν είναι POSIX, δείτε το Ρύθμιση περιβάλλοντος ανάπτυξης του API για περισσότερες επιλογές διαμόρφωσης.

Επόμενα Βήματα

  • Εάν δεν χρησιμοποιείτε το Conda ή δεν αναπτύσσετε για GPU, Build and Run a Sample Project.
  • Για τους χρήστες του Conda, συνεχίστε στην επόμενη ενότητα.
  • Για ανάπτυξη σε GPU, συνεχίστε στους Χρήστες GPU

Conda Environments σε αυτήν την εργαλειοθήκη
Υπάρχουν πολλά περιβάλλοντα conda που περιλαμβάνονται στο κιτ AI. Κάθε περιβάλλον περιγράφεται στον παρακάτω πίνακα. Αφού ορίσετε τις μεταβλητές περιβάλλοντος σε περιβάλλον CLI, όπως σας είχε δοθεί προηγουμένως, μπορείτε στη συνέχεια να ενεργοποιήσετε διαφορετικά περιβάλλοντα conda όπως απαιτείται μέσω της ακόλουθης εντολής:

  • conda ενεργοποίηση

Για περισσότερες πληροφορίες, εξερευνήστε τη σχετική με κάθε περιβάλλον Ξεκινώντας Sampσυνδέονται στον παρακάτω πίνακα.

AI-Analytics-Toolkit-for-Linux-FIG-2

Χρησιμοποιήστε τη συνάρτηση Conda Clone για να προσθέσετε πακέτα ως χρήστης που δεν είναι Root
Η εργαλειοθήκη Intel AI Analytics είναι εγκατεστημένη στον φάκελο oneapi, ο οποίος απαιτεί δικαιώματα root για τη διαχείριση. Μπορεί να θέλετε να προσθέσετε και να διατηρήσετε νέα πακέτα χρησιμοποιώντας το Conda*, αλλά δεν μπορείτε να το κάνετε χωρίς πρόσβαση root. Ή, μπορεί να έχετε πρόσβαση root αλλά να μην θέλετε να εισάγετε τον κωδικό πρόσβασης root κάθε φορά που ενεργοποιείτε το Conda.

Για να διαχειριστείτε το περιβάλλον σας χωρίς να χρησιμοποιήσετε πρόσβαση root, χρησιμοποιήστε τη λειτουργία κλώνου Conda για να κλωνοποιήσετε τα πακέτα που χρειάζεστε σε έναν φάκελο εκτός του φακέλου /opt/intel/oneapi/:

  1. Από το ίδιο παράθυρο τερματικού όπου εκτελέσατε το setvars.sh, προσδιορίστε τα περιβάλλοντα Conda στο σύστημά σας:
    • λίστα conda env
      Θα δείτε αποτελέσματα παρόμοια με αυτό:AI-Analytics-Toolkit-for-Linux-FIG-3
  2. Χρησιμοποιήστε τη λειτουργία κλωνοποίησης για να κλωνοποιήσετε το περιβάλλον σε νέο φάκελο. Στην πρampΠαρακάτω, το νέο περιβάλλον ονομάζεται usr_intelpython και το περιβάλλον που κλωνοποιείται ονομάζεται βάση (όπως φαίνεται στην παραπάνω εικόνα).
    • conda δημιουργία –όνομα usr_intelpython –κλώνος βάσης
      Θα εμφανιστούν οι λεπτομέρειες του κλώνου:

AI-Analytics-Toolkit-for-Linux-FIG-4

  1. Ενεργοποιήστε το νέο περιβάλλον για να ενεργοποιήσετε τη δυνατότητα προσθήκης πακέτων. για να ενεργοποιήσετε το usr_intelpython
  2. Βεβαιωθείτε ότι το νέο περιβάλλον είναι ενεργό. λίστα conda env
    Τώρα μπορείτε να αναπτύξετε χρησιμοποιώντας το περιβάλλον Conda για Intel Distribution για Python.
  3. Για να ενεργοποιήσετε το περιβάλλον TensorFlow* ή PyTorch*:

TensorFlow

  • conda activate tensorflow

PyTorch

  • conda activate pytorch

Επόμενα Βήματα

  • Εάν δεν αναπτύσσετε για GPU, δημιουργήστε και εκτελέστε ένα Sample Project.
  • Για ανάπτυξη σε GPU, συνεχίστε στους Χρήστες GPU.

Χρήστες GPU
Για όσους αναπτύσσουν μια GPU, ακολουθήστε αυτά τα βήματα:

Εγκαταστήστε προγράμματα οδήγησης GPU
Εάν ακολουθήσατε τις οδηγίες στον Οδηγό εγκατάστασης για την εγκατάσταση προγραμμάτων οδήγησης GPU, μπορείτε να παραλείψετε αυτό το βήμα. Εάν δεν έχετε εγκαταστήσει τα προγράμματα οδήγησης, ακολουθήστε τις οδηγίες στον Οδηγό εγκατάστασης.

Προσθήκη χρήστη στην ομάδα βίντεο
Για φόρτους εργασίας υπολογισμού GPU, οι χρήστες που δεν είναι root (κανονικοί) δεν έχουν συνήθως πρόσβαση στη συσκευή GPU. Φροντίστε να προσθέσετε τους κανονικούς χρήστες σας στην ομάδα βίντεο. Διαφορετικά, τα δυαδικά αρχεία που έχουν μεταγλωττιστεί για τη συσκευή GPU θα αποτύχουν όταν εκτελεστούν από έναν κανονικό χρήστη. Για να διορθώσετε αυτό το πρόβλημα, προσθέστε τον χρήστη που δεν είναι root στην ομάδα βίντεο:

  • sudo usermod -a -G βίντεο

Απενεργοποιήστε το Hangcheck
Για εφαρμογές με μακροχρόνιο υπολογισμό φόρτου εργασίας GPU σε εγγενή περιβάλλοντα, απενεργοποιήστε το hangcheck. Αυτό δεν συνιστάται για εικονικοποιήσεις ή άλλες τυπικές χρήσεις GPU, όπως παιχνίδια.

Ένας φόρτος εργασίας που διαρκεί περισσότερα από τέσσερα δευτερόλεπτα για να εκτελεστεί το υλικό GPU είναι μεγάλος φόρτος εργασίας. Από προεπιλογή, τα μεμονωμένα νήματα που πληρούν τις προϋποθέσεις ως μακροχρόνιος φόρτος εργασίας θεωρούνται αναρτημένα και τερματίζονται. Απενεργοποιώντας την περίοδο χρονικού ορίου του hangcheck, μπορείτε να αποφύγετε αυτό το πρόβλημα.

ΣΗΜΕΙΩΜΑ: Εάν ο πυρήνας ενημερωθεί, το hangcheck ενεργοποιείται αυτόματα. Εκτελέστε την παρακάτω διαδικασία μετά από κάθε ενημέρωση του πυρήνα για να βεβαιωθείτε ότι το hangcheck είναι απενεργοποιημένο.

  1. Ανοίξτε ένα τερματικό.
  2. Ανοίξτε το γκρουπ file στο /etc/default.
  3. Στο γκρουπ file, βρείτε τη γραμμή GRUB_CMDLINE_LINUX_DEFAULT=”” .
  4. Εισαγάγετε αυτό το κείμενο ανάμεσα στα εισαγωγικά (""):
  5. Εκτελέστε αυτήν την εντολή:
    sudo update-grub
  6. Επανεκκινήστε το σύστημα. Το Hangcheck παραμένει απενεργοποιημένο.

Επόμενο Βήμα
Τώρα που έχετε διαμορφώσει το σύστημά σας, προχωρήστε στην Build and Run a Sample Project.

Κατασκευάστε και εκτελέστε ένα Sample Χρήση της γραμμής εντολών

Εργαλειοθήκη Intel® AI Analytics
Σε αυτήν την ενότητα, θα εκτελέσετε ένα απλό έργο "Hello World" για να εξοικειωθείτε με τη διαδικασία κατασκευής έργων και στη συνέχεια να δημιουργήσετε το δικό σας έργο.

ΣΗΜΕΙΩΜΑ: Εάν δεν έχετε ήδη διαμορφώσει το περιβάλλον ανάπτυξής σας, μεταβείτε στο Ρύθμιση παραμέτρων του συστήματός σας και, στη συνέχεια, επιστρέψτε σε αυτήν τη σελίδα. Εάν έχετε ήδη ολοκληρώσει τα βήματα για τη διαμόρφωση του συστήματός σας, συνεχίστε με τα παρακάτω βήματα.

Μπορείτε να χρησιμοποιήσετε είτε ένα παράθυρο τερματικού είτε τον κωδικό του Visual Studio* όταν εργάζεστε από τη γραμμή εντολών. Για λεπτομέρειες σχετικά με τον τρόπο χρήσης του VS Code τοπικά, ανατρέξτε στο θέμα Βασική χρήση του κώδικα του Visual Studio με το oneAPI σε Linux*. Για να χρησιμοποιήσετε τον Κώδικα VS εξ αποστάσεως, ανατρέξτε στην ενότητα Ανάπτυξη κώδικα απομακρυσμένου Visual Studio με oneAPI σε Linux*.

Κατασκευάστε και εκτελέστε ένα Sample Project
Το sampΤα παρακάτω πρέπει να κλωνοποιηθούν στο σύστημά σας για να μπορέσετε να δημιουργήσετε το sample project:

AI-Analytics-Toolkit-for-Linux-FIG-5 AI-Analytics-Toolkit-for-Linux-FIG-6

Για να δείτε μια λίστα στοιχείων που υποστηρίζουν το CMake, ανατρέξτε στο θέμα Χρήση του CMake σε με εφαρμογές oneAPI.

Δημιουργήστε το δικό σας έργο
Δεν απαιτούνται ειδικές τροποποιήσεις στα υπάρχοντα έργα Python για να αρχίσετε να τα χρησιμοποιείτε με αυτήν την εργαλειοθήκη. Για νέα έργα, η διαδικασία ακολουθεί πιστά τη διαδικασία που χρησιμοποιείται για τη δημιουργία sample Hello World έργα. Ανατρέξτε στο Hello World README files για οδηγίες.

Μεγιστοποίηση της απόδοσης
Μπορείτε να λάβετε τεκμηρίωση που θα σας βοηθήσει να μεγιστοποιήσετε την απόδοση είτε για το TensorFlow είτε για το PyTorch.

Διαμορφώστε το περιβάλλον σας

ΣΗΜΕΙΩΜΑ: Εάν το εικονικό σας περιβάλλον δεν είναι διαθέσιμο ή εάν επιθυμείτε να προσθέσετε πακέτα στο εικονικό σας περιβάλλον, βεβαιωθείτε ότι έχετε ολοκληρώσει τα βήματα της ενότητας Χρήση της συνάρτησης κλώνου Conda για προσθήκη πακέτων ως χρήστης χωρίς ρίζα.

Εάν αναπτύσσετε εκτός ενός κοντέινερ, προμηθευτείτε το ακόλουθο σενάριο για να χρησιμοποιήσετε το Intel® Distribution για Python*:

    • /setvars.sh
  • όπου είναι όπου εγκαταστήσατε αυτήν την εργαλειοθήκη. Από προεπιλογή ο κατάλογος εγκατάστασης είναι:
  • Εγκαταστάσεις root ή sudo: /opt/intel/oneapi
  • Εγκαταστάσεις τοπικών χρηστών: ~/intel/oneapi

ΣΗΜΕΙΩΜΑ: Η διαχείριση του σεναρίου setvars.sh μπορεί να γίνει χρησιμοποιώντας μια διαμόρφωση file, το οποίο είναι ιδιαίτερα χρήσιμο εάν χρειάζεται να αρχικοποιήσετε συγκεκριμένες εκδόσεις βιβλιοθηκών ή του μεταγλωττιστή, αντί να κάνετε προεπιλογή στην "πιο πρόσφατη" έκδοση. Για περισσότερες λεπτομέρειες, ανατρέξτε στην ενότητα Χρήση διαμόρφωσης File για να διαχειριστείτε το Setvars.sh. Εάν χρειάζεται να ρυθμίσετε το περιβάλλον σε ένα κέλυφος που δεν είναι POSIX, ανατρέξτε στο OneAPI Development Environment Setup για περισσότερες επιλογές διαμόρφωσης.

Για να αλλάξετε περιβάλλοντα, πρέπει πρώτα να απενεργοποιήσετε το ενεργό περιβάλλον.
Οι παρακάτω π.χampΤο le δείχνει τη διαμόρφωση του περιβάλλοντος, την ενεργοποίηση του TensorFlow* και, στη συνέχεια, την επιστροφή στη Διανομή Intel για Python:

Κατεβάστε ένα κοντέινερ

Εργαλειοθήκη Intel® AI Analytics
Τα κοντέινερ σάς επιτρέπουν να ρυθμίζετε και να διαμορφώνετε περιβάλλοντα για τη δημιουργία, εκτέλεση και δημιουργία προφίλ εφαρμογών oneAPI και να τα διανέμετε χρησιμοποιώντας εικόνες:

  • Μπορείτε να εγκαταστήσετε μια εικόνα που περιέχει ένα περιβάλλον προρυθμισμένο με όλα τα εργαλεία που χρειάζεστε και στη συνέχεια να αναπτύξετε σε αυτό το περιβάλλον.
  • Μπορείτε να αποθηκεύσετε ένα περιβάλλον και να χρησιμοποιήσετε την εικόνα για να μετακινήσετε αυτό το περιβάλλον σε άλλο μηχάνημα χωρίς πρόσθετη ρύθμιση.
  • Μπορείτε να προετοιμάσετε κοντέινερ με διαφορετικά σύνολα γλωσσών και χρόνους εκτέλεσης, εργαλεία ανάλυσης ή άλλα εργαλεία, ανάλογα με τις ανάγκες.

Λήψη εικόνας Docker*
Μπορείτε να πραγματοποιήσετε λήψη μιας εικόνας Docker* από το Αποθετήριο Containers.

ΣΗΜΕΙΩΜΑ: Η εικόνα του Docker είναι ~5 GB και μπορεί να χρειαστούν ~15 λεπτά για τη λήψη. Θα απαιτήσει 25 GB χώρου στο δίσκο.

  1. Ορίστε την εικόνα:
    image=intel/oneapi-aikit docker pull "$image"
  2. Τραβήξτε την εικόνα.
    Docker pull "$image"

Μόλις γίνει λήψη της εικόνας σας, προχωρήστε στην ενότητα Χρήση κοντέινερ με τη γραμμή εντολών.

Χρήση κοντέινερ με τη γραμμή εντολών
Κιτ εργαλείων Intel® AI Analytics Κατεβάστε απευθείας τα προκατασκευασμένα κοντέινερ. Η παρακάτω εντολή για την CPU θα σας αφήσει σε μια γραμμή εντολών, μέσα στο κοντέινερ, σε διαδραστική λειτουργία.

CPU
image=intel/oneapi-aikit docker run -it “$image”

Χρήση Intel® Advisor, Intel® Inspector ή VTune™ με κοντέινερ
Όταν χρησιμοποιείτε αυτά τα εργαλεία, πρέπει να παρέχονται επιπλέον δυνατότητες στο κοντέινερ: –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE

  • docker run –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE \ –device=/dev/dri -it “$image”

Χρήση συστημάτων Cloud CI

Τα συστήματα Cloud CI σάς επιτρέπουν να δημιουργείτε και να δοκιμάζετε το λογισμικό σας αυτόματα. Δείτε το repo στο github για πρώηνamples της διαμόρφωσης files που χρησιμοποιούν oneAPI για τα δημοφιλή συστήματα cloud CI.

Αντιμετώπιση προβλημάτων για το Intel® AI Analytics Toolkit

AI-Analytics-Toolkit-for-Linux-FIG-8

Ειδοποιήσεις και αποποιήσεις ευθυνών

Οι τεχνολογίες Intel ενδέχεται να απαιτούν ενεργοποιημένο υλικό, λογισμικό ή ενεργοποίηση υπηρεσίας. Κανένα προϊόν ή εξάρτημα δεν μπορεί να είναι απολύτως ασφαλές.
Το κόστος και τα αποτελέσματά σας ενδέχεται να διαφέρουν.

© Intel Corporation. Η ονομασία Intel, το λογότυπο Intel και άλλα σήματα Intel είναι εμπορικά σήματα της Intel Corporation ή των θυγατρικών της. Άλλα ονόματα και επωνυμίες μπορούν να διεκδικηθούν ως ιδιοκτησία άλλων.

Πληροφορίες προϊόντος και απόδοσης

Η απόδοση ποικίλλει ανάλογα με τη χρήση, τη διαμόρφωση και άλλους παράγοντες. Μάθετε περισσότερα στο www.Intel.com/PerformanceIndex.
Αναθεώρηση ειδοποίησης #20201201

Καμία άδεια (ρητή ή σιωπηρή, με estoppel ή με άλλο τρόπο) για δικαιώματα πνευματικής ιδιοκτησίας δεν χορηγείται από αυτό το έγγραφο. Τα προϊόντα που περιγράφονται ενδέχεται να περιέχουν σχεδιαστικά ελαττώματα ή σφάλματα γνωστά ως λάθη που μπορεί να προκαλέσουν απόκλιση του προϊόντος από τις δημοσιευμένες προδιαγραφές. Τα τρέχοντα χαρακτηρισμένα σφάλματα είναι διαθέσιμα κατόπιν αιτήματος.

Η Intel αποποιείται κάθε ρητής και σιωπηρής εγγύησης, συμπεριλαμβανομένων χωρίς περιορισμό, των σιωπηρών εγγυήσεων εμπορευσιμότητας, καταλληλότητας για συγκεκριμένο σκοπό και μη παραβίασης, καθώς και οποιασδήποτε εγγύησης που προκύπτει από την πορεία απόδοσης, την πορεία συναλλαγής ή τη χρήση στο εμπόριο.

Έγγραφα / Πόροι

intel AI Analytics Toolkit για Linux [pdf] Οδηγός χρήστη
Εργαλειοθήκη AI Analytics για Linux, Εργαλειοθήκη AI Analytics, Εργαλειοθήκη Analytics για Linux, Εργαλειοθήκη Analytics, Εργαλειοθήκη

Αναφορές

Αφήστε ένα σχόλιο

Η διεύθυνση email σας δεν θα δημοσιευτεί. Τα υποχρεωτικά πεδία επισημαίνονται *