Intel AI Analytics Toolkit per Linux
Informazione di u produttu
U Kit AI hè un kit di strumenti chì include parechje ambienti conda per l'apprendimentu machine è prughjetti di apprendimentu profondu. Include ambienti per TensorFlow, PyTorch è Intel oneCCL Bindings. Permette à l'utilizatori di cunfigurà u so sistema stabilendu variabili di l'ambienti, utilizendu Conda per aghjunghje pacchetti, installendu driver grafici è disattivendu hangcheck. U toolkit pò esse usatu in una Command Line Interface (CLI) è pò esse facilmente integratu in i prughjetti esistenti senza alcuna mudificazione speciale.
Usu di u produttu
- Configurate u vostru sistema per stabilisce e variabili di l'ambiente prima di cuntinuà.
- Per travaglià in una Command Line Interface (CLI), aduprate l'script setvars.sh per cunfigurà l'arnesi in i toolkits oneAPI via variabili di l'ambiente. Pudete fonte di l'script setvars.sh una volta per sessione o ogni volta chì apre una nova finestra di terminal. U script setvars.sh pò esse truvatu in u cartulare radicali di a vostra installazione oneAPI.
- Attivate diverse ambienti conda cum'è necessariu via u cumandimu "conda attivate ". U Kit AI include ambienti conda per TensorFlow (CPU), TensorFlow cù Intel Extension per Sample TensorFlow (GPU), PyTorch cù Intel Extension for PyTorch (XPU), è Intel oneCCL Bindings for PyTorch (CPU).
- Esplora ogni ambiente di Getting Started Sample ligate in a tavula furnita in u manuale d'utilizatore per più infurmazione nantu à cumu utilizà ogni ambiente.
L'istruzzioni seguenti assume chì avete installatu u software Intel® oneAPI. Vede a pagina di Intel AI Analytics Toolkit per l'opzioni di installazione. Segui questi passi per custruisce è eseguisce cum'èample cù l'Intel® AI Analytics Toolkit (AI Kit):
- Configurate u vostru sistema.
- Custruite è eseguite un Sample.
NOTA: L'installazione standard di Python sò cumpletamente cumpatibili cù u Kit AI, ma a distribuzione Intel® per Python * hè preferita.
Nisuna mudificazione speciale à i vostri prughjetti esistenti hè necessariu per cumincià à aduprà cù questu toolkit.
Cumpunenti di stu Toolkit
U Kit AI include
- Intel® Optimization for PyTorch*: L'Intel® oneAPI Deep Neural Network Library (oneDNN) hè inclusa in PyTorch cum'è a biblioteca predeterminata di kernel di matematica per l'apprendimentu profondu.
- Estensione Intel® per PyTorch: L'estensione Intel® per PyTorch * estende e capacità di PyTorch * cù funzioni è ottimisazioni aghjurnate per un impulso di rendiment extra in hardware Intel.
- Intel® Optimization for TensorFlow*: Questa versione integra primitive da oneDNN in u runtime TensorFlow per un rendiment acceleratu.
- Intel® Extension for TensorFlow: Intel® Extension for TensorFlow* hè un plugin di estensione di apprendimentu profondu eterogeneu, di altu rendiment basatu annantu à l'interfaccia TensorFlow PluggableDevice. Stu plugin di estensione porta i dispositi Intel XPU (GPU, CPU, etc.) in a comunità open source TensorFlow per l'accelerazione di u travagliu AI.
- Distribuzione Intel® per Python*: Ottene un rendimentu di l'applicazione Python più veloce da a scatula, cù cambiamenti minimi o micca à u vostru codice. Questa distribuzione hè integrata cù Intel® Performance Libraries cum'è Intel® oneAPI Math Kernel Library è Intel®oneAPI Data Analytics Library.
- Intel® Distribution of Modin* (dispunibule solu per Anaconda), chì vi permette di scalà in modu perfettu a preprocessazione in più nodi cù sta libreria di dataframe intelligente è distribuita cù una API identica à i panda. Questa distribuzione hè dispunibule solu per installà l'Intel® AI Analytics Toolkit cù u Conda * Package Manager.
- Intel® Neural Compressor: implementate rapidamente soluzioni di inferenza di bassa precisione nantu à i frameworki di apprendimentu prufonda populari cum'è TensorFlow*, PyTorch*, MXNet*, è ONNX* (Open Neural Network Exchange) runtime.
- Estensione Intel® per Scikit-learn*: Un modu senza soluzione per accelerà a vostra applicazione Scikit-learn utilizendu a Biblioteca Intel® oneAPI Data Analytics (oneDAL).
Patching scikit-learn rende un framework di apprendimentu automaticu adattatu per trattà i prublemi di a vita reale. - XGBoost Optimized by Intel: Stu pacchettu di apprendimentu di macchina ben cunnisciutu per l'arburi di decisione aumentati di gradiente include un'accelerazione senza saldatura per l'architetture Intel® per accelerà significativamente a furmazione di mudelli è migliurà a precisione per megliu predizioni.
Configurate u vostru Sistema - Intel® AI Analytics Toolkit
Se ùn avete micca installatu l'AI Analytics Toolkit, riferite à Installazione di l'Intel® AI Analytics Toolkit. Per cunfigurà u vostru sistema, stabilisce e variabili di l'ambiente prima di cuntinuà.
Set Variabili di Ambiente per u Sviluppu CLI
Per travaglià in una Command Line Interface (CLI), l'arnesi in i toolkits oneAPI sò cunfigurati via
variabili ambientali. Per stabilisce e variabili di l'ambiente da l'origine di u script setvars:
Opzione 1: Source setvars.sh una volta per sessione
Source setvars.sh ogni volta chì apre una nova finestra di terminal:
Pudete truvà u script setvars.sh in u cartulare radicali di a vostra installazione oneAPI, chì hè tipica / opt / intel / oneapi / per installazioni di u sistema è ~ / intel / oneapi / per installazioni private.
Per installazioni in tuttu u sistema (richiede privilegi di root o sudo):
- . /opt/intel/oneapi/setvars.sh
Per installazioni private:
- . ~/intel/oneapi/setvars.sh
Opzione 2: Configurazione una volta per setvars.sh
Per avè l'ambiente automaticamente stallatu per i vostri prughjetti, include a fonte di cumanda
/setvars.sh in un script di startup induve serà invucatu automaticamente (sustituitu
cù u percorsu à u vostru locu d'installazione oneAPI). I posti di installazione predeterminati sò / opt /
intel/oneapi/ per installazioni in tuttu u sistema (richiede privilegi di root o sudo) è ~/intel/oneapi/ per installazioni private.
Per esample, pudete aghjunghje a fonte /setvars.sh cumanda à u vostru ~/.bashrc o ~/.bashrc_profile o ~/.profile file. Per fà i paràmetri permanenti per tutti i cunti in u vostru sistema, creanu un script .sh in una linea in /etc/pro di u vostru sistema.file.d chì fonti setvars.sh (per più dettagli, vede a documentazione di Ubuntu nantu à Variabili d'ambiente).
NOTA
U script setvars.sh pò esse amministratu cù una cunfigurazione file, chì hè soprattuttu utile s'ellu avete bisognu di inizializà versioni specifiche di biblioteche o di u compilatore, piuttostu cà di predeterminatu à l'"ultima versione". Per più dettagli, vede Utilizà una Configurazione File per Manage Setvars.sh.. Se avete bisognu di cunfigurà l'ambiente in una cunchiglia non-POSIX, vede OneAPI Development Environment Setup per più opzioni di cunfigurazione.
Prossime Passi
- Se ùn site micca aduprà Conda, o sviluppate per GPU, Custruite è Eseguite un Sampu prughjettu.
- Per l'utilizatori di Conda, cuntinueghja à a sezione dopu.
- Per u sviluppu nantu à una GPU, cuntinueghja à l'Utenti GPU
Ambienti Conda in questu Toolkit
Ci sò parechje ambienti conda inclusi in u Kit AI. Ogni ambiente hè descrittu in a tabella sottu. Una volta chì avete stabilitu e variabili di l'ambiente in l'ambiente CLI cum'è urdinatu prima, pudete attivà diverse ambienti conda in quantu necessariu via u cumandimu seguente:
- cunda attivate
Per più infurmazione, per piacè esplorate ogni ambiente di Getting Started Sample liate in a tavula sottu.
Aduprate a Funzione Conda Clone per aghjunghje Pacchetti cum'è User Non-Root
U toolkit Intel AI Analytics hè stallatu in u cartulare oneapi, chì richiede privilegi di root per gestisce. Puderete vulete aghjunghje è mantene novi pacchetti cù Conda *, ma ùn pudete micca fà senza l'accessu root. Oppure, pudete avè accessu à a ràdica, ma ùn vulete micca inserisce a password di a ràdica ogni volta chì attivate Conda.
Per gestisce u vostru ambiente senza utilizà l'accessu root, utilizate a funziunalità di clone Conda per clone i pacchetti chì avete bisognu à un cartulare fora di u cartulare /opt/intel/oneapi/:
- Da a listessa finestra di terminale induve eseguite setvars.sh, identificate l'ambienti Conda in u vostru sistema:
- cunda env list
Puderete vede risultati simili à questu:
- cunda env list
- Aduprate a funzione clone per clone l'ambiente in un novu cartulare. In l'example sottu, u novu ambiente hè chjamatu usr_intelpython è l'ambiente chì hè clonatu hè chjamatu basa (cum'è mostra in l'imaghjini sopra).
- cunda create -name usr_intelpython -clone base
I dettagli di u clone appariscenu:
- cunda create -name usr_intelpython -clone base
- Attivate u novu ambiente per attivà a capacità di aghjunghje pacchetti. cunda attivate usr_intelpython
- Verificate chì u novu ambiente hè attivu. cunda env list
Pudete avà sviluppà aduprendu l'ambiente Conda per Intel Distribution for Python. - Per attivà l'ambiente TensorFlow* o PyTorch*:
TensorFlow
- conda attivate tensorflow
PyTorch
- cunda attivate pytorch
Prossime Passi
- Se ùn site micca sviluppatu per GPU, Custruite è Eseguite un Sampu prughjettu.
- Per u sviluppu nantu à una GPU, cuntinueghja à l'Utenti GPU.
Utenti GPU
Per quelli chì sò sviluppati nantu à una GPU, seguitate sti passi:
Installa i driver GPU
Se seguite l'istruzzioni in a Guida di Installazione per installà i Driver GPU, pudete saltà stu passu. Se ùn avete micca installatu i drivers, seguite e indicazioni in a Guida di Installazione.
Add User à Video Group
Per i carichi di travagliu di compute GPU, l'utilizatori non-root (normali) ùn anu micca generalmente accessu à u dispositivu GPU. Assicuratevi di aghjunghje u vostru usu normale (s) à u gruppu video; altrimenti, i binari compilati per u dispositivu GPU fallaranu quandu eseguiti da un utilizatore normale. Per risolve stu prublema, aghjunghje l'utilizatori non-root à u gruppu video:
- sudo usermod -a -G video
Disattiva Hangcheck
Per l'applicazioni cù carichi di travagliu di calculu GPU di longa durata in ambienti nativi, disattivate l'hangcheck. Questu ùn hè micca cunsigliatu per virtualizazioni o altri usi standard di GPU, cum'è i ghjoculi.
Una carica di travagliu chì dura più di quattru seconde per eseguisce l'hardware GPU hè una carica di travagliu longu. Per automaticamente, i fili individuali chì qualificanu cum'è carichi di travagliu longu sò cunsiderati appiccicati è sò terminati. Disattivendu u periodu di timeout di hangcheck, pudete evità stu prublema.
NOTA: Se u kernel hè aghjurnatu, hangcheck hè attivatu automaticamente. Eseguite a prucedura sottu dopu ogni aghjurnamentu di u kernel per assicurà chì u hangcheck hè disattivatu.
- Aprite un terminal.
- Aprite u grub file in /etc/default.
- In u grub file, truvate a linea GRUB_CMDLINE_LINUX_DEFAULT="" .
- Inserite stu testu trà e virgulette (""):
- Eseguite stu cumandamentu:
sudo update-grub - Reboot u sistema. Hangcheck resta disattivatu.
Next Step
Avà chì avete cunfiguratu u vostru sistema, andate à Custruisce è Eseguite un Sampu prughjettu.
Custruite è eseguite un Sample Utilizendu a linea di cummandu
Intel® AI Analytics Toolkit
In questa sezione, eseguite un prughjettu simplice "Hello World" per familiarizàvi cù u prucessu di custruzzione di prughjetti, è poi custruisce u vostru propiu prughjettu.
NOTA: Se ùn avete micca cunfiguratu u vostru ambiente di sviluppu, andate à Configurate u vostru sistema è torna à sta pagina. Sè avete digià cumpletu i passi per cunfigurà u vostru sistema, cuntinueghja cù i passi sottu.
Pudete aduprà una finestra di terminal o Visual Studio Code * quandu travagliate da a linea di cumanda. Per i dettagli nantu à cumu utilizà VS Code in u locu, vede l'Usu di basa di Visual Studio Code cù oneAPI in Linux *. Per utilizà VS Code remotamente, vedi Remote Visual Studio Code Development with oneAPI in Linux*.
Custruite è eseguite un Sampu prughjettu
U samples sottu deve esse clonatu à u vostru sistema prima di pudè custruisce u sampu prughjettu:
Per vede una lista di cumpunenti chì supportanu CMake, vede Use CMake to with oneAPI Applications.
Custruite u vostru propiu prughjettu
Nisuna mudificazione speciale à i vostri prughjetti Python esistenti hè necessariu per cumincià à aduprà cù questu toolkit. Per i novi prughjetti, u prucessu seguita strettamente u prucessu utilizatu per creà sampi prughjetti Hello World. Consultate à Hello World README files per istruzioni.
Massimizà u rendiment
Pudete uttene documentazione per aiutà à maximizà u rendiment per TensorFlow o PyTorch.
Configurate u vostru Ambiente
NOTA: Se u vostru ambiente virtuale ùn hè micca dispunibule, o se vulete aghjunghje pacchetti à u vostru ambiente virtuale, assicuratevi di avè cumpletu i passi in Utilizà a Funzione Clone Conda per aghjunghje Pacchetti cum'è User Non-Root.
Se sviluppate fora di un containeru, fate u script seguente per utilizà a Distribuzione Intel® per Python*:
-
- /setvars.sh
- induve hè induve installate stu toolkit. Per automaticamente, u cartulare di installazione hè:
- Installazioni root o sudo: /opt/intel/oneapi
- Installazioni d'utilizatori lucali: ~/intel/oneapi
NOTA: U script setvars.sh pò esse amministratu cù una cunfigurazione file, chì hè soprattuttu utile s'ellu avete bisognu di inizializà versioni specifiche di biblioteche o di u compilatore, piuttostu cà di predeterminatu à l'"ultima versione". Per più dettagli, vede Utilizà una Configurazione File à Gestisce Setvars.sh. Sè avete bisognu di cunfigurà l'ambiente in una shell non-POSIX, vede OneAPI Development Environment Setup per più opzioni di cunfigurazione.
Per cambià l'ambienti, deve prima disattivà l'ambiente attivu.
I seguenti example mostra a cunfigurazione di l'ambiente, attivendu TensorFlow *, è dopu vultà à a Distribuzione Intel per Python:
Scaricate un Container
Intel® AI Analytics Toolkit
I cuntenituri permettenu di cunfigurà è cunfigurà ambienti per custruisce, eseguisce è prufessi l'applicazioni oneAPI è distribuisce cù l'imaghjini:
- Pudete installà una maghjina chì cuntene un ambiente pre-configuratu cù tutti l'arnesi chì avete bisognu, poi sviluppà in quellu ambiente.
- Pudete salvà un ambiente è aduprà l'imaghjini per spustà quellu ambiente à una altra macchina senza cunfigurazione supplementaria.
- Pudete preparà cuntenituri cù diversi setti di lingue è runtimes, strumenti di analisi, o altri strumenti, secondu u bisognu.
Scaricate Docker * Image
Pudete scaricà una maghjina Docker * da u Repositoriu di Containers.
NOTA: L'imagine Docker hè ~ 5 GB è pò piglià ~ 15 minuti per scaricà. Hè bisognu di 25 GB di spaziu di discu.
- Definite l'imagine:
image=intel/oneapi-aikit docker tira "$image" - Tira l'imaghjini.
docker tira "$image"
Una volta chì a vostra maghjina hè scaricata, andate à Utilizà Containers cù a Linea di Command.
Utilizà Containers cù a Linea di Command
Intel® AI Analytics Toolkit Scaricate direttamente i containeri pre-custruiti. U cumandimu sottu per CPU vi lasciarà in un prompt di cumanda, in u containeru, in modu interattivu.
CPU
image=intel/oneapi-aikit docker run -it "$image"
Utilizendu Intel® Advisor, Intel® Inspector o VTune™ cù Containers
Quandu si usanu sti strumenti, e capacità extra anu da esse furnite à u containeru: –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE
- docker run –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE \ –device=/dev/dri -it “$image”
Utilizendu Cloud CI Systems
I sistemi Cloud CI permettenu di custruisce è pruvà u vostru software automaticamente. Vede u repo in github per examples di cunfigurazione files chì utilizanu oneAPI per i famosi sistemi CI di nuvola.
Risoluzione di prublemi per l'Intel® AI Analytics Toolkit
Avvisi è Disclaimers
I tecnulugii Intel ponu esse bisognu di attivazione di hardware, software o serviziu attivatu. Nisun pruduttu o cumpunente pò esse assolutamente sicuru.
I vostri costi è risultati pò varià.
© Intel Corporation. Intel, u logu Intel è altri marchi Intel sò marchi di Intel Corporation o di e so filiali. Altri nomi è marche ponu esse rivendicate cum'è a pruprietà di l'altri.
Informazione di u produttu è di u rendiment
U rendiment varieghja per usu, cunfigurazione è altri fattori. Sapete più à www.Intel.com/PerformanceIndex.
Avvisu di rivisione #20201201
Nisuna licenza (espressa o implicita, per estoppel o altrimenti) à qualsiasi diritti di pruprietà intellettuale hè cuncessa da stu documentu. I prudutti descritti ponu cuntene difetti di cuncepimentu o errori cunnisciuti cum'è errata chì ponu causà à u pruduttu di devià da e specificazioni publicate. L'errata carattarizatu attuale sò dispunibili nantu à dumanda.
Intel declina tutte e garanzie espresse è implicite, cumprese senza limitazione, e garanzie implicite di cummerciabilità, idoneità per un scopu particulari, è non-infrazione, è ancu qualsiasi guaranzia derivante da u cursu di prestazione, u cursu di trattu o l'usu in u cummerciu.
Documenti / Risorse
![]() |
Intel AI Analytics Toolkit per Linux [pdfGuida di l'utente AI Analytics Toolkit per Linux, AI Analytics Toolkit, Analytics Toolkit per Linux, Analytics Toolkit, Toolkit |