Intel oneAPI DL Framework Developers Toolkit per Linux
Segui questi passaggi per Intel® oneAPI DL Framework Developer Toolkit:
Le seguenti istruzioni presuppongono che tu abbia installato il software Intel® oneAPI. Si prega di consultare il Pagina Intel oneAPI Toolkit per le opzioni di installazione.
- Configura il tuo sistema
- Costruisci ed esegui comeample project utilizzando la riga di comando.
Introduzione
Se desideri utilizzare oneDNN e oneCCL samples, è necessario installare il file Toolkit di base Intel® oneAPI. Il kit di base contiene tutti i componenti di Intel® oneAPI DL Framework Developer Toolkit (DLFD Kit) con tutte le dipendenze richieste.
Se desideri utilizzare le librerie DL DevKit senza provare i file fornitiamples, è sufficiente installare il kit DLFD. Altrimenti, installa il file Toolkit di base Intel® oneAPI.
Questo toolkit è una suite di librerie di sviluppo che semplifica e velocizza la creazione o l'ottimizzazione di un framework di deep learning che ottiene fino all'ultima goccia di prestazioni dai più recenti processori Intel®. Questo toolkit abilita Deep Learning Framework con opzioni flessibili che includono prestazioni ottimali su CPU o GPU.
- Libreria di rete neurale profonda Intel® oneAPI
- Libreria per le comunicazioni collettive Intel® oneAPI
Libreria di rete neurale profonda Intel® oneAPI
Intel® oneAPI Deep Neural Network Library è una libreria di prestazioni open source per applicazioni di deep learning. La libreria include elementi costitutivi di base per le reti neurali ottimizzate per i processori con architettura Intel® e la grafica per processori Intel®. Questa libreria è destinata alle applicazioni di deep learning e agli sviluppatori di framework interessati a migliorare le prestazioni delle applicazioni su CPU e GPU Intel. Molti popolari framework di Deep Learning sono integrati con questa libreria.
Libreria per le comunicazioni collettive Intel® oneAPI
Intel® oneAPI Collective Communications Library è una libreria che fornisce un'implementazione efficiente dei modelli di comunicazione utilizzati nel deep learning.
- Basato sulla libreria Intel® MPI, consente l'utilizzo di altre librerie di comunicazione.
- Ottimizzato per promuovere la scalabilità dei modelli di comunicazione.
- Funziona su varie interconnessioni: architettura Intel® Omni-Path, InfiniBand* ed Ethernet
- API comune per supportare framework di Deep Learning (Caffe*, Theano*,Torch*, ecc.)
- Questo pacchetto comprende i componenti Intel® MLSL Software Development Kit (SDK) e Intel® MPI Library Runtime.
Configura il tuo sistema
Kit di strumenti per sviluppatori Intel® oneAPI DL Framework
Per correre sample utilizzando il compilatore Intel® oneAPI DPC++/C++ e Intel® Threading Building Blocks, è necessario installare il Toolkit di base Intel® oneAPI prima di configurare il sistema.
Per un elenco completo dei requisiti di sistema, vedere il Note sulla versione della libreria di rete neurale profonda Intel® oneAPI.
Per configurare il tuo sistema, devi:
- Impostare le variabili d'ambiente per CPU/GPU o FPGA
- Per gli utenti GPU, installare i driver GPU
- Disabilita Hangcheck per le applicazioni con carichi di lavoro di elaborazione GPU a esecuzione prolungata
- Per gli utenti GPU, aggiungi un utente al gruppo video
Impostare le variabili d'ambiente per lo sviluppo della CLI
Per lavorare su un'interfaccia a riga di comando (CLI), gli strumenti nei toolkit oneAPI sono configurati tramite variabili di ambiente. Configura il tuo ambiente CLI estraendo lo script setvars:
Opzione 1: origine setvars.sh una volta per sessione
Fonte setvars.sh ogni volta che apri una nuova finestra di terminale:
È possibile trovare lo script setvars.sh nella cartella principale dell'installazione di oneAPI, che in genere è /opt/ intel/oneapi/ per gli utenti sudo o root e ~/intel/oneapi/ se installato come utente normale.
Per installazioni root o sudo:
. /opt/intel/oneapi/setvars.sh
Per le normali installazioni utente:
. ~/intel/oneapi/setvars.sh
Opzione 2: configurazione una tantum per setvars.sh
Per configurare automaticamente l'ambiente per i tuoi progetti, includi il comando source /setvars.sh in uno script di avvio in cui verrà richiamato automaticamente (sostituiscilo con il percorso della posizione di installazione di oneAPI). I percorsi di installazione predefiniti sono /opt/ intel/oneapi/ per gli utenti sudo o root e ~/intel/oneapi/ se installato come utente normale.
Per esempioample, puoi aggiungere il comando source /setvars.sh al tuo ~/.bashrc o ~/.bashrc_profile o ~/.profile file. Per rendere permanenti le impostazioni per tutti gli account sul tuo sistema, crea uno script .sh di una riga nel file /etc/pro del tuo sistemafile.d cartella che genera setvars.sh (per maggiori dettagli, vedi Documentazione di Ubuntu sulle variabili d'ambiente).
NOTA
Lo script setvars.sh può essere gestito utilizzando una configurazione file, che è particolarmente utile se è necessario inizializzare versioni specifiche delle librerie o del compilatore, piuttosto che utilizzare per impostazione predefinita la versione "più recente".
Per maggiori dettagli, vedi Utilizzo di una configurazione File gestire Setvars.sh.. Se è necessario configurare l'ambiente in una shell non POSIX, vedere Configurazione dell'ambiente di sviluppo oneAPI per ulteriori opzioni di configurazione.
Per gli utenti GPU, installare i driver GPU
Se hai seguito le istruzioni nella Guida all'installazione per installare i driver GPU, puoi saltare questo passaggio. Se non hai installato i driver, segui le indicazioni nel file Guida all'installazione.
GPU: disabilita Hangcheck
Questa sezione si applica solo alle applicazioni con carichi di lavoro di elaborazione GPU a esecuzione prolungata in ambienti nativi. Non è consigliato per virtualizzazioni o altri usi standard della GPU, come i giochi.
Un carico di lavoro che richiede più di quattro secondi per l'esecuzione dell'hardware GPU è un carico di lavoro a esecuzione prolungata. Per impostazione predefinita, i singoli thread che si qualificano come carichi di lavoro a esecuzione prolungata vengono considerati bloccati e terminati.
Disabilitando il periodo di timeout dell'hangcheck, puoi evitare questo problema.
NOTA Se il sistema viene riavviato, l'hangcheck viene abilitato automaticamente. È necessario disabilitare nuovamente l'hangcheck dopo ogni riavvio o seguire le istruzioni per disabilitare l'hangcheck in modo persistente (tra più riavvii).
Per disabilitare l'hangcheck fino al prossimo riavvio:
sudo sh -c "echo N> /sys/module/i915/parameters/enable_hangcheck"
Per disabilitare l'hangcheck su più riavvii:
NOTA Se il kernel viene aggiornato, l'hangcheck viene abilitato automaticamente. Esegui la procedura seguente dopo ogni aggiornamento del kernel per assicurarti che l'hangcheck sia disabilitato.
- Aprire un terminale.
- Apri il grub file in /etc/default.
- Nel grumo file, trova la riga GRUB_CMDLINE_LINUX_DEFAULT=””.
Inserisci questo testo tra virgolette (""):
i915.enable_hangcheck=0 - Esegui questo comando:
sudo aggiornamento-grub - Riavvia il sistema. Hangcheck rimane disabilitato.
GPU: aggiungi utente al gruppo video
Per i carichi di lavoro di elaborazione GPU, gli utenti non root (normali) in genere non hanno accesso al dispositivo GPU. Assicurati di aggiungere i tuoi utenti normali al gruppo video; in caso contrario, i binari compilati per il dispositivo GPU falliranno se eseguiti da un utente normale. Per risolvere questo problema, aggiungi l'utente non root al gruppo video: sudo usermod -a -G video
Per l'elenco dei requisiti più aggiornato, vedere il Note sulla versione della libreria per le comunicazioni collettive Intel® oneAPI.
Correre comeampil progetto
Correre comeample project utilizzando la riga di comando.
Correre comeample Project utilizzando la riga di comando
Kit di strumenti per sviluppatori Intel® oneAPI DL Framework
Se desideri utilizzare oneDNN e oneCCL samples, è necessario installare il file Toolkit di base Intel® oneAPI (BaseKit).
Il BaseKit contiene tutti i componenti di Intel® oneAPI DL Framework Developer Toolkit con tutte le dipendenze richieste.
Dopo aver installato BaseKit, puoi eseguire asample utilizzando le istruzioni in Crea ed esegui un Intel® oneAPI DL Framework Developer Toolkit Sample Utilizzo della riga di comando.
Utilizzo di contenitori
Kit di strumenti per sviluppatori Intel® oneAPI DL Framework
I contenitori consentono di impostare e configurare ambienti per la creazione, l'esecuzione e la creazione di profili di applicazioni oneAPI e di distribuirle utilizzando immagini:
- Puoi installare un'immagine contenente un ambiente preconfigurato con tutti gli strumenti necessari, quindi sviluppare all'interno di tale ambiente.
- È possibile salvare un ambiente e utilizzare l'immagine per spostare tale ambiente su un'altra macchina senza configurazione aggiuntiva.
- Puoi preparare contenitori con diversi set di linguaggi e runtime, strumenti di analisi o altri strumenti, se necessario.
Scarica l'immagine Docker*
È possibile scaricare un'immagine Docker* dal file Repository di contenitori.
NOTA L'immagine Docker è di circa 5 GB e il download può richiedere circa 15 minuti. Richiederà 25 GB di spazio su disco.
immagine=intel/oneapi-dlfdkit
la finestra mobile estrae "$immagine"
Utilizzo di contenitori con la riga di comando
Kit di strumenti per sviluppatori Intel® oneAPI DL Framework
Compilare ed eseguire direttamente i contenitori.
Quanto segue abilita la GPU, se disponibile, utilizzando –device=/dev/dri (potrebbe non essere disponibile in Linux* VM o Windows*). Il comando ti lascerà al prompt dei comandi, all'interno del contenitore, in modalità interattiva.
immagine=intel/oneapi-dlfdkit
# –device=/dev/dri abilita la gpu (se disponibile). Potrebbe non essere disponibile nella VM Linux o nella finestra mobile di Windows run –device=/dev/dri -it “$image”
Una volta nel contenitore, puoi interagire con esso usando Run a Sample Project utilizzando la riga di comando.
NOTA Potrebbe essere necessario includere le impostazioni del proxy prima di -it "$image" se sei dietro un proxy:
docker run -e http_proxy=”$http_proxy” -e https_proxy=”$https_proxy” -it “$immagine”
Utilizzo di Intel® Advisor, Intel® Inspector o VTune™ con i contenitori
Quando si utilizzano questi strumenti, è necessario fornire funzionalità aggiuntive al contenitore:
–cap-add=SYS_ADMIN –cap-add=SYS_PTRACE
docker esegui –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE \
–device=/dev/dri -it “$immagine”
Prossimi passi
Kit di strumenti per sviluppatori Intel® oneAPI DL Framework
Dopo aver costruito il tuo progetto, review Intel® oneAPI DL Framework Toolkit Codice Samples per comprendere le capacità di questo toolkit.
Avvisi e dichiarazioni di non responsabilità
Le tecnologie Intel potrebbero richiedere l'attivazione di hardware, software o servizi abilitati.
Nessun prodotto o componente può essere assolutamente sicuro.
I tuoi costi e risultati possono variare.
© Intel Corporation. Intel, il logo Intel e altri marchi Intel sono marchi di Intel Corporation o delle sue consociate. Altri nomi e marchi possono essere rivendicati come proprietà di altri.
Avviso di ottimizzazione
I compilatori Intel possono ottimizzare o meno allo stesso livello per i microprocessori non Intel per le ottimizzazioni che non sono univoche per i microprocessori Intel. Queste ottimizzazioni includono set di istruzioni SSE2, SSE3 e SSSE3 e altre ottimizzazioni. Intel non garantisce la disponibilità, la funzionalità o l'efficacia di alcuna ottimizzazione su microprocessori non prodotti da Intel. Le ottimizzazioni dipendenti dal microprocessore in questo prodotto sono destinate all'uso con i microprocessori Intel. Alcune ottimizzazioni non specifiche della microarchitettura Intel sono riservate ai microprocessori Intel. Si prega di fare riferimento alle Guide per l'utente e di riferimento del prodotto applicabile per ulteriori informazioni riguardanti i set di istruzioni specifici coperti da questo avviso.
Avviso revisione n. 20110804
Il presente documento non concede alcuna licenza (espressa o implicita, per preclusione o altro) su alcun diritto di proprietà intellettuale.
I prodotti descritti possono contenere difetti di progettazione o errori noti come errata che possono causare la deviazione del prodotto dalle specifiche pubblicate. Le errata caratterizzate correnti sono disponibili su richiesta.
Intel declina tutte le garanzie esplicite e implicite, incluse, a titolo esemplificativo, le garanzie implicite di commerciabilità, idoneità per uno scopo particolare e non violazione, nonché qualsiasi garanzia derivante dal corso delle prestazioni, dal modo di trattare o dall'uso commerciale.
Documenti / Risorse
![]() |
Intel oneAPI DL Framework Developers Toolkit per Linux [pdf] Manuale del proprietario oneAPI DL Framework Developers Toolkit per Linux, Framework Developers Toolkit per Linux, Developers Toolkit per Linux, Toolkit per Linux |