intelLOGO

Intel AI Analytics Toolkit per Linux

AI Analytics Toolkit per Linux

Informazione di u produttu

U Kit AI hè un kit di strumenti chì include parechje ambienti conda per l'apprendimentu machine è prughjetti di apprendimentu profondu. Include ambienti per TensorFlow, PyTorch è Intel oneCCL Bindings. Permette à l'utilizatori di cunfigurà u so sistema stabilendu variabili di l'ambienti, utilizendu Conda per aghjunghje pacchetti, installendu driver grafici è disattivendu hangcheck. U toolkit pò esse usatu in una Command Line Interface (CLI) è pò esse facilmente integratu in i prughjetti esistenti senza alcuna mudificazione speciale.

Usu di u produttu

  1. Configurate u vostru sistema per stabilisce e variabili di l'ambiente prima di cuntinuà.
  2. Per travaglià in una Command Line Interface (CLI), aduprate l'script setvars.sh per cunfigurà l'arnesi in i toolkits oneAPI via variabili di l'ambiente. Pudete fonte di l'script setvars.sh una volta per sessione o ogni volta chì apre una nova finestra di terminal. U script setvars.sh pò esse truvatu in u cartulare radicali di a vostra installazione oneAPI.
  3. Attivate diverse ambienti conda cum'è necessariu via u cumandimu "conda attivate ". U Kit AI include ambienti conda per TensorFlow (CPU), TensorFlow cù Intel Extension per Sample TensorFlow (GPU), PyTorch cù Intel Extension for PyTorch (XPU), è Intel oneCCL Bindings for PyTorch (CPU).
  4. Esplora ogni ambiente di Getting Started Sample ligate in a tavula furnita in u manuale d'utilizatore per più infurmazione nantu à cumu utilizà ogni ambiente.

L'istruzzioni seguenti assume chì avete installatu u software Intel® oneAPI. Vede a pagina di Intel AI Analytics Toolkit per l'opzioni di installazione. Segui questi passi per custruisce è eseguisce cum'èample cù l'Intel® AI Analytics Toolkit (AI Kit):

  1. Configurate u vostru sistema.
  2. Custruite è eseguite un Sample.

NOTA: L'installazione standard di Python sò cumpletamente cumpatibili cù u Kit AI, ma a distribuzione Intel® per Python * hè preferita.
Nisuna mudificazione speciale à i vostri prughjetti esistenti hè necessariu per cumincià à aduprà cù questu toolkit.

Cumpunenti di stu Toolkit

U Kit AI include

  • Intel® Optimization for PyTorch*: L'Intel® oneAPI Deep Neural Network Library (oneDNN) hè inclusa in PyTorch cum'è a biblioteca predeterminata di kernel di matematica per l'apprendimentu profondu.
  • Estensione Intel® per PyTorch: L'estensione Intel® per PyTorch * estende e capacità di PyTorch * cù funzioni è ottimisazioni aghjurnate per un impulso di rendiment extra in hardware Intel.
  • Intel® Optimization for TensorFlow*: Questa versione integra primitive da oneDNN in u runtime TensorFlow per un rendiment acceleratu.
  • Intel® Extension for TensorFlow: Intel® Extension for TensorFlow* hè un plugin di estensione di apprendimentu profondu eterogeneu, di altu rendiment basatu annantu à l'interfaccia TensorFlow PluggableDevice. Stu plugin di estensione porta i dispositi Intel XPU (GPU, CPU, etc.) in a comunità open source TensorFlow per l'accelerazione di u travagliu AI.
  • Distribuzione Intel® per Python*: Ottene un rendimentu di l'applicazione Python più veloce da a scatula, cù cambiamenti minimi o micca à u vostru codice. Questa distribuzione hè integrata cù Intel® Performance Libraries cum'è Intel® oneAPI Math Kernel Library è Intel®oneAPI Data Analytics Library.
  • Intel® Distribution of Modin* (dispunibule solu per Anaconda), chì vi permette di scalà in modu perfettu a preprocessazione in più nodi cù sta libreria di dataframe intelligente è distribuita cù una API identica à i panda. Questa distribuzione hè dispunibule solu per installà l'Intel® AI Analytics Toolkit cù u Conda * Package Manager.
  • Intel® Neural Compressor: implementate rapidamente soluzioni di inferenza di bassa precisione nantu à i frameworki di apprendimentu prufonda populari cum'è TensorFlow*, PyTorch*, MXNet*, è ONNX* (Open Neural Network Exchange) runtime.
  • Estensione Intel® per Scikit-learn*: Un modu senza soluzione per accelerà a vostra applicazione Scikit-learn utilizendu a Biblioteca Intel® oneAPI Data Analytics (oneDAL).
    Patching scikit-learn rende un framework di apprendimentu automaticu adattatu per trattà i prublemi di a vita reale.
  • XGBoost Optimized by Intel: Stu pacchettu di apprendimentu di macchina ben cunnisciutu per l'arburi di decisione aumentati di gradiente include un'accelerazione senza saldatura per l'architetture Intel® per accelerà significativamente a furmazione di mudelli è migliurà a precisione per megliu predizioni.

Configurate u vostru Sistema - Intel® AI Analytics Toolkit

Se ùn avete micca installatu l'AI Analytics Toolkit, riferite à Installazione di l'Intel® AI Analytics Toolkit. Per cunfigurà u vostru sistema, stabilisce e variabili di l'ambiente prima di cuntinuà.

 

Set Variabili di Ambiente per u Sviluppu CLI
Per travaglià in una Command Line Interface (CLI), l'arnesi in i toolkits oneAPI sò cunfigurati via
variabili ambientali. Per stabilisce e variabili di l'ambiente da l'origine di u script setvars:

Opzione 1: Source setvars.sh una volta per sessione
Source setvars.sh ogni volta chì apre una nova finestra di terminal:

Pudete truvà u script setvars.sh in u cartulare radicali di a vostra installazione oneAPI, chì hè tipica / opt / intel / oneapi / per installazioni di u sistema è ~ / intel / oneapi / per installazioni private.

Per installazioni in tuttu u sistema (richiede privilegi di root o sudo):

  • . /opt/intel/oneapi/setvars.sh

Per installazioni private:

  • . ~/intel/oneapi/setvars.sh

Opzione 2: Configurazione una volta per setvars.sh
Per avè l'ambiente automaticamente stallatu per i vostri prughjetti, include a fonte di cumanda
/setvars.sh in un script di startup induve serà invucatu automaticamente (sustituitu
cù u percorsu à u vostru locu d'installazione oneAPI). I posti di installazione predeterminati sò / opt /
intel/oneapi/ per installazioni in tuttu u sistema (richiede privilegi di root o sudo) è ~/intel/oneapi/ per installazioni private.
Per esample, pudete aghjunghje a fonte /setvars.sh cumanda à u vostru ~/.bashrc o ~/.bashrc_profile o ~/.profile file. Per fà i paràmetri permanenti per tutti i cunti in u vostru sistema, creanu un script .sh in una linea in /etc/pro di u vostru sistema.file.d chì fonti setvars.sh (per più dettagli, vede a documentazione di Ubuntu nantu à Variabili d'ambiente).

NOTA
U script setvars.sh pò esse amministratu cù una cunfigurazione file, chì hè soprattuttu utile s'ellu avete bisognu di inizializà versioni specifiche di biblioteche o di u compilatore, piuttostu cà di predeterminatu à l'"ultima versione". Per più dettagli, vede Utilizà una Configurazione File per Manage Setvars.sh.. Se avete bisognu di cunfigurà l'ambiente in una cunchiglia non-POSIX, vede OneAPI Development Environment Setup per più opzioni di cunfigurazione.

Prossime Passi

  • Se ùn site micca aduprà Conda, o sviluppate per GPU, Custruite è Eseguite un Sampu prughjettu.
  • Per l'utilizatori di Conda, cuntinueghja à a sezione dopu.
  • Per u sviluppu nantu à una GPU, cuntinueghja à l'Utenti GPU

Ambienti Conda in questu Toolkit
Ci sò parechje ambienti conda inclusi in u Kit AI. Ogni ambiente hè descrittu in a tabella sottu. Una volta chì avete stabilitu e variabili di l'ambiente in l'ambiente CLI cum'è urdinatu prima, pudete attivà diverse ambienti conda in quantu necessariu via u cumandimu seguente:

  • cunda attivate

Per più infurmazione, per piacè esplorate ogni ambiente di Getting Started Sample liate in a tavula sottu.

AI-Analytics-Toolkit-for-Linux-FIG-2

Aduprate a Funzione Conda Clone per aghjunghje Pacchetti cum'è User Non-Root
U toolkit Intel AI Analytics hè stallatu in u cartulare oneapi, chì richiede privilegi di root per gestisce. Puderete vulete aghjunghje è mantene novi pacchetti cù Conda *, ma ùn pudete micca fà senza l'accessu root. Oppure, pudete avè accessu à a ràdica, ma ùn vulete micca inserisce a password di a ràdica ogni volta chì attivate Conda.

Per gestisce u vostru ambiente senza utilizà l'accessu root, utilizate a funziunalità di clone Conda per clone i pacchetti chì avete bisognu à un cartulare fora di u cartulare /opt/intel/oneapi/:

  1. Da a listessa finestra di terminale induve eseguite setvars.sh, identificate l'ambienti Conda in u vostru sistema:
    • cunda env list
      Puderete vede risultati simili à questu:AI-Analytics-Toolkit-for-Linux-FIG-3
  2. Aduprate a funzione clone per clone l'ambiente in un novu cartulare. In l'example sottu, u novu ambiente hè chjamatu usr_intelpython è l'ambiente chì hè clonatu hè chjamatu basa (cum'è mostra in l'imaghjini sopra).
    • cunda create -name usr_intelpython -clone base
      I dettagli di u clone appariscenu:

AI-Analytics-Toolkit-for-Linux-FIG-4

  1. Attivate u novu ambiente per attivà a capacità di aghjunghje pacchetti. cunda attivate usr_intelpython
  2. Verificate chì u novu ambiente hè attivu. cunda env list
    Pudete avà sviluppà aduprendu l'ambiente Conda per Intel Distribution for Python.
  3. Per attivà l'ambiente TensorFlow* o PyTorch*:

TensorFlow

  • conda attivate tensorflow

PyTorch

  • cunda attivate pytorch

Prossime Passi

  • Se ùn site micca sviluppatu per GPU, Custruite è Eseguite un Sampu prughjettu.
  • Per u sviluppu nantu à una GPU, cuntinueghja à l'Utenti GPU.

Utenti GPU
Per quelli chì sò sviluppati nantu à una GPU, seguitate sti passi:

Installa i driver GPU
Se seguite l'istruzzioni in a Guida di Installazione per installà i Driver GPU, pudete saltà stu passu. Se ùn avete micca installatu i drivers, seguite e indicazioni in a Guida di Installazione.

Add User à Video Group
Per i carichi di travagliu di compute GPU, l'utilizatori non-root (normali) ùn anu micca generalmente accessu à u dispositivu GPU. Assicuratevi di aghjunghje u vostru usu normale (s) à u gruppu video; altrimenti, i binari compilati per u dispositivu GPU fallaranu quandu eseguiti da un utilizatore normale. Per risolve stu prublema, aghjunghje l'utilizatori non-root à u gruppu video:

  • sudo usermod -a -G video

Disattiva Hangcheck
Per l'applicazioni cù carichi di travagliu di calculu GPU di longa durata in ambienti nativi, disattivate l'hangcheck. Questu ùn hè micca cunsigliatu per virtualizazioni o altri usi standard di GPU, cum'è i ghjoculi.

Una carica di travagliu chì dura più di quattru seconde per eseguisce l'hardware GPU hè una carica di travagliu longu. Per automaticamente, i fili individuali chì qualificanu cum'è carichi di travagliu longu sò cunsiderati appiccicati è sò terminati. Disattivendu u periodu di timeout di hangcheck, pudete evità stu prublema.

NOTA: Se u kernel hè aghjurnatu, hangcheck hè attivatu automaticamente. Eseguite a prucedura sottu dopu ogni aghjurnamentu di u kernel per assicurà chì u hangcheck hè disattivatu.

  1. Aprite un terminal.
  2. Aprite u grub file in /etc/default.
  3. In u grub file, truvate a linea GRUB_CMDLINE_LINUX_DEFAULT="" .
  4. Inserite stu testu trà e virgulette (""):
  5. Eseguite stu cumandamentu:
    sudo update-grub
  6. Reboot u sistema. Hangcheck resta disattivatu.

Next Step
Avà chì avete cunfiguratu u vostru sistema, andate à Custruisce è Eseguite un Sampu prughjettu.

Custruite è eseguite un Sample Utilizendu a linea di cummandu

Intel® AI Analytics Toolkit
In questa sezione, eseguite un prughjettu simplice "Hello World" per familiarizàvi cù u prucessu di custruzzione di prughjetti, è poi custruisce u vostru propiu prughjettu.

NOTA: Se ùn avete micca cunfiguratu u vostru ambiente di sviluppu, andate à Configurate u vostru sistema è torna à sta pagina. Sè avete digià cumpletu i passi per cunfigurà u vostru sistema, cuntinueghja cù i passi sottu.

Pudete aduprà una finestra di terminal o Visual Studio Code * quandu travagliate da a linea di cumanda. Per i dettagli nantu à cumu utilizà VS Code in u locu, vede l'Usu di basa di Visual Studio Code cù oneAPI in Linux *. Per utilizà VS Code remotamente, vedi Remote Visual Studio Code Development with oneAPI in Linux*.

Custruite è eseguite un Sampu prughjettu
U samples sottu deve esse clonatu à u vostru sistema prima di pudè custruisce u sampu prughjettu:

AI-Analytics-Toolkit-for-Linux-FIG-5 AI-Analytics-Toolkit-for-Linux-FIG-6

Per vede una lista di cumpunenti chì supportanu CMake, vede Use CMake to with oneAPI Applications.

Custruite u vostru propiu prughjettu
Nisuna mudificazione speciale à i vostri prughjetti Python esistenti hè necessariu per cumincià à aduprà cù questu toolkit. Per i novi prughjetti, u prucessu seguita strettamente u prucessu utilizatu per creà sampi prughjetti Hello World. Consultate à Hello World README files per istruzioni.

Massimizà u rendiment
Pudete uttene documentazione per aiutà à maximizà u rendiment per TensorFlow o PyTorch.

Configurate u vostru Ambiente

NOTA: Se u vostru ambiente virtuale ùn hè micca dispunibule, o se vulete aghjunghje pacchetti à u vostru ambiente virtuale, assicuratevi di avè cumpletu i passi in Utilizà a Funzione Clone Conda per aghjunghje Pacchetti cum'è User Non-Root.

Se sviluppate fora di un containeru, fate u script seguente per utilizà a Distribuzione Intel® per Python*:

    • /setvars.sh
  • induve hè induve installate stu toolkit. Per automaticamente, u cartulare di installazione hè:
  • Installazioni root o sudo: /opt/intel/oneapi
  • Installazioni d'utilizatori lucali: ~/intel/oneapi

NOTA: U script setvars.sh pò esse amministratu cù una cunfigurazione file, chì hè soprattuttu utile s'ellu avete bisognu di inizializà versioni specifiche di biblioteche o di u compilatore, piuttostu cà di predeterminatu à l'"ultima versione". Per più dettagli, vede Utilizà una Configurazione File à Gestisce Setvars.sh. Sè avete bisognu di cunfigurà l'ambiente in una shell non-POSIX, vede OneAPI Development Environment Setup per più opzioni di cunfigurazione.

Per cambià l'ambienti, deve prima disattivà l'ambiente attivu.
I seguenti example mostra a cunfigurazione di l'ambiente, attivendu TensorFlow *, è dopu vultà à a Distribuzione Intel per Python:

Scaricate un Container

Intel® AI Analytics Toolkit
I cuntenituri permettenu di cunfigurà è cunfigurà ambienti per custruisce, eseguisce è prufessi l'applicazioni oneAPI è distribuisce cù l'imaghjini:

  • Pudete installà una maghjina chì cuntene un ambiente pre-configuratu cù tutti l'arnesi chì avete bisognu, poi sviluppà in quellu ambiente.
  • Pudete salvà un ambiente è aduprà l'imaghjini per spustà quellu ambiente à una altra macchina senza cunfigurazione supplementaria.
  • Pudete preparà cuntenituri cù diversi setti di lingue è runtimes, strumenti di analisi, o altri strumenti, secondu u bisognu.

Scaricate Docker * Image
Pudete scaricà una maghjina Docker * da u Repositoriu di Containers.

NOTA: L'imagine Docker hè ~ 5 GB è pò piglià ~ 15 minuti per scaricà. Hè bisognu di 25 GB di spaziu di discu.

  1. Definite l'imagine:
    image=intel/oneapi-aikit docker tira "$image"
  2. Tira l'imaghjini.
    docker tira "$image"

Una volta chì a vostra maghjina hè scaricata, andate à Utilizà Containers cù a Linea di Command.

Utilizà Containers cù a Linea di Command
Intel® AI Analytics Toolkit Scaricate direttamente i containeri pre-custruiti. U cumandimu sottu per CPU vi lasciarà in un prompt di cumanda, in u containeru, in modu interattivu.

CPU
image=intel/oneapi-aikit docker run -it "$image"

Utilizendu Intel® Advisor, Intel® Inspector o VTune™ cù Containers
Quandu si usanu sti strumenti, e capacità extra anu da esse furnite à u containeru: –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE

  • docker run –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE \ –device=/dev/dri -it “$image”

Utilizendu Cloud CI Systems

I sistemi Cloud CI permettenu di custruisce è pruvà u vostru software automaticamente. Vede u repo in github per examples di cunfigurazione files chì utilizanu oneAPI per i famosi sistemi CI di nuvola.

Risoluzione di prublemi per l'Intel® AI Analytics Toolkit

AI-Analytics-Toolkit-for-Linux-FIG-8

Avvisi è Disclaimers

I tecnulugii Intel ponu esse bisognu di attivazione di hardware, software o serviziu attivatu. Nisun pruduttu o cumpunente pò esse assolutamente sicuru.
I vostri costi è risultati pò varià.

© Intel Corporation. Intel, u logu Intel è altri marchi Intel sò marchi di Intel Corporation o di e so filiali. Altri nomi è marche ponu esse rivendicate cum'è a pruprietà di l'altri.

Informazione di u produttu è di u rendiment

U rendiment varieghja per usu, cunfigurazione è altri fattori. Sapete più à www.Intel.com/PerformanceIndex.
Avvisu di rivisione #20201201

Nisuna licenza (espressa o implicita, per estoppel o altrimenti) à qualsiasi diritti di pruprietà intellettuale hè cuncessa da stu documentu. I prudutti descritti ponu cuntene difetti di cuncepimentu o errori cunnisciuti cum'è errata chì ponu causà à u pruduttu di devià da e specificazioni publicate. L'errata carattarizatu attuale sò dispunibili nantu à dumanda.

Intel declina tutte e garanzie espresse è implicite, cumprese senza limitazione, e garanzie implicite di cummerciabilità, idoneità per un scopu particulari, è non-infrazione, è ancu qualsiasi guaranzia derivante da u cursu di prestazione, u cursu di trattu o l'usu in u cummerciu.

Documenti / Risorse

Intel AI Analytics Toolkit per Linux [pdfGuida di l'utente
AI Analytics Toolkit per Linux, AI Analytics Toolkit, Analytics Toolkit per Linux, Analytics Toolkit, Toolkit

Referenze

Lascia un cumentu

U vostru indirizzu email ùn serà micca publicatu. I campi obbligatori sò marcati *