Intel oneAPI DL Framework Developers Toolkit per Linux
Intel oneAPI DL Framework Developers Toolkit per Linux

Segui questi passaggi per Intel® oneAPI DL Framework Developer Toolkit:

Le seguenti istruzioni presuppongono che tu abbia installato il software Intel® oneAPI. Si prega di consultare il Pagina Intel oneAPI Toolkit per le opzioni di installazione.

  1. Configura il tuo sistema
  2. Costruisci ed esegui comeample project utilizzando la riga di comando.

Introduzione

Se desideri utilizzare oneDNN e oneCCL samples, è necessario installare il file Toolkit di base Intel® oneAPI. Il kit di base contiene tutti i componenti di Intel® oneAPI DL Framework Developer Toolkit (DLFD Kit) con tutte le dipendenze richieste.

Se desideri utilizzare le librerie DL DevKit senza provare i file fornitiamples, è sufficiente installare il kit DLFD. Altrimenti, installa il file Toolkit di base Intel® oneAPI.

Questo toolkit è una suite di librerie di sviluppo che semplifica e velocizza la creazione o l'ottimizzazione di un framework di deep learning che ottiene fino all'ultima goccia di prestazioni dai più recenti processori Intel®. Questo toolkit abilita Deep Learning Framework con opzioni flessibili che includono prestazioni ottimali su CPU o GPU.

  • Libreria di rete neurale profonda Intel® oneAPI
  • Libreria per le comunicazioni collettive Intel® oneAPI

Libreria di rete neurale profonda Intel® oneAPI

Intel® oneAPI Deep Neural Network Library è una libreria di prestazioni open source per applicazioni di deep learning. La libreria include elementi costitutivi di base per le reti neurali ottimizzate per i processori con architettura Intel® e la grafica per processori Intel®. Questa libreria è destinata alle applicazioni di deep learning e agli sviluppatori di framework interessati a migliorare le prestazioni delle applicazioni su CPU e GPU Intel. Molti popolari framework di Deep Learning sono integrati con questa libreria.

Libreria per le comunicazioni collettive Intel® oneAPI

Intel® oneAPI Collective Communications Library è una libreria che fornisce un'implementazione efficiente dei modelli di comunicazione utilizzati nel deep learning.

  • Basato sulla libreria Intel® MPI, consente l'utilizzo di altre librerie di comunicazione.
  • Ottimizzato per promuovere la scalabilità dei modelli di comunicazione.
  • Funziona su varie interconnessioni: architettura Intel® Omni-Path, InfiniBand* ed Ethernet
  • API comune per supportare framework di Deep Learning (Caffe*, Theano*,Torch*, ecc.)
  • Questo pacchetto comprende i componenti Intel® MLSL Software Development Kit (SDK) e Intel® MPI Library Runtime.

Configura il tuo sistema

Kit di strumenti per sviluppatori Intel® oneAPI DL Framework
Per correre sample utilizzando il compilatore Intel® oneAPI DPC++/C++ e Intel® Threading Building Blocks, è necessario installare il Toolkit di base Intel® oneAPI prima di configurare il sistema.

Per un elenco completo dei requisiti di sistema, vedere il Note sulla versione della libreria di rete neurale profonda Intel® oneAPI.

Per configurare il tuo sistema, devi:

  • Impostare le variabili d'ambiente per CPU/GPU o FPGA
  • Per gli utenti GPU, installare i driver GPU
  • Disabilita Hangcheck per le applicazioni con carichi di lavoro di elaborazione GPU a esecuzione prolungata
  • Per gli utenti GPU, aggiungi un utente al gruppo video
Impostare le variabili d'ambiente per lo sviluppo della CLI

Per lavorare su un'interfaccia a riga di comando (CLI), gli strumenti nei toolkit oneAPI sono configurati tramite variabili di ambiente. Configura il tuo ambiente CLI estraendo lo script setvars:

Opzione 1: origine setvars.sh una volta per sessione

Fonte setvars.sh ogni volta che apri una nuova finestra di terminale:
È possibile trovare lo script setvars.sh nella cartella principale dell'installazione di oneAPI, che in genere è /opt/ intel/oneapi/ per gli utenti sudo o root e ~/intel/oneapi/ se installato come utente normale.

Per installazioni root o sudo:
. /opt/intel/oneapi/setvars.sh
Per le normali installazioni utente:
. ~/intel/oneapi/setvars.sh

Opzione 2: configurazione una tantum per setvars.sh

Per configurare automaticamente l'ambiente per i tuoi progetti, includi il comando source /setvars.sh in uno script di avvio in cui verrà richiamato automaticamente (sostituiscilo con il percorso della posizione di installazione di oneAPI). I percorsi di installazione predefiniti sono /opt/ intel/oneapi/ per gli utenti sudo o root e ~/intel/oneapi/ se installato come utente normale.

Per esempioample, puoi aggiungere il comando source /setvars.sh al tuo ~/.bashrc o ~/.bashrc_profile o ~/.profile file. Per rendere permanenti le impostazioni per tutti gli account sul tuo sistema, crea uno script .sh di una riga nel file /etc/pro del tuo sistemafile.d cartella che genera setvars.sh (per maggiori dettagli, vedi Documentazione di Ubuntu sulle variabili d'ambiente).

NOTA
Lo script setvars.sh può essere gestito utilizzando una configurazione file, che è particolarmente utile se è necessario inizializzare versioni specifiche delle librerie o del compilatore, piuttosto che utilizzare per impostazione predefinita la versione "più recente".
Per maggiori dettagli, vedi Utilizzo di una configurazione File gestire Setvars.sh.. Se è necessario configurare l'ambiente in una shell non POSIX, vedere Configurazione dell'ambiente di sviluppo oneAPI per ulteriori opzioni di configurazione.

Per gli utenti GPU, installare i driver GPU

Se hai seguito le istruzioni nella Guida all'installazione per installare i driver GPU, puoi saltare questo passaggio. Se non hai installato i driver, segui le indicazioni nel file Guida all'installazione.

GPU: disabilita Hangcheck

Questa sezione si applica solo alle applicazioni con carichi di lavoro di elaborazione GPU a esecuzione prolungata in ambienti nativi. Non è consigliato per virtualizzazioni o altri usi standard della GPU, come i giochi.

Un carico di lavoro che richiede più di quattro secondi per l'esecuzione dell'hardware GPU è un carico di lavoro a esecuzione prolungata. Per impostazione predefinita, i singoli thread che si qualificano come carichi di lavoro a esecuzione prolungata vengono considerati bloccati e terminati.
Disabilitando il periodo di timeout dell'hangcheck, puoi evitare questo problema.

NOTA Se il sistema viene riavviato, l'hangcheck viene abilitato automaticamente. È necessario disabilitare nuovamente l'hangcheck dopo ogni riavvio o seguire le istruzioni per disabilitare l'hangcheck in modo persistente (tra più riavvii).

Per disabilitare l'hangcheck fino al prossimo riavvio:
sudo sh -c "echo N> /sys/module/i915/parameters/enable_hangcheck"

Per disabilitare l'hangcheck su più riavvii:

NOTA Se il kernel viene aggiornato, l'hangcheck viene abilitato automaticamente. Esegui la procedura seguente dopo ogni aggiornamento del kernel per assicurarti che l'hangcheck sia disabilitato.

  1. Aprire un terminale.
  2. Apri il grub file in /etc/default.
  3. Nel grumo file, trova la riga GRUB_CMDLINE_LINUX_DEFAULT=””.
    Inserisci questo testo tra virgolette (""):
    i915.enable_hangcheck=0
  4. Esegui questo comando:
    sudo aggiornamento-grub
  5. Riavvia il sistema. Hangcheck rimane disabilitato.
GPU: aggiungi utente al gruppo video

Per i carichi di lavoro di elaborazione GPU, gli utenti non root (normali) in genere non hanno accesso al dispositivo GPU. Assicurati di aggiungere i tuoi utenti normali al gruppo video; in caso contrario, i binari compilati per il dispositivo GPU falliranno se eseguiti da un utente normale. Per risolvere questo problema, aggiungi l'utente non root al gruppo video: sudo usermod -a -G video

Per l'elenco dei requisiti più aggiornato, vedere il Note sulla versione della libreria per le comunicazioni collettive Intel® oneAPI.

Correre comeampil progetto
Correre comeample project utilizzando la riga di comando.

Correre comeample Project utilizzando la riga di comando

Kit di strumenti per sviluppatori Intel® oneAPI DL Framework

Se desideri utilizzare oneDNN e oneCCL samples, è necessario installare il file Toolkit di base Intel® oneAPI (BaseKit).
Il BaseKit contiene tutti i componenti di Intel® oneAPI DL Framework Developer Toolkit con tutte le dipendenze richieste.

Dopo aver installato BaseKit, puoi eseguire asample utilizzando le istruzioni in Crea ed esegui un Intel® oneAPI DL Framework Developer Toolkit Sample Utilizzo della riga di comando.

Utilizzo di contenitori

Kit di strumenti per sviluppatori Intel® oneAPI DL Framework

I contenitori consentono di impostare e configurare ambienti per la creazione, l'esecuzione e la creazione di profili di applicazioni oneAPI e di distribuirle utilizzando immagini:

  • Puoi installare un'immagine contenente un ambiente preconfigurato con tutti gli strumenti necessari, quindi sviluppare all'interno di tale ambiente.
  • È possibile salvare un ambiente e utilizzare l'immagine per spostare tale ambiente su un'altra macchina senza configurazione aggiuntiva.
  • Puoi preparare contenitori con diversi set di linguaggi e runtime, strumenti di analisi o altri strumenti, se necessario.
Scarica l'immagine Docker*

È possibile scaricare un'immagine Docker* dal file Repository di contenitori.

NOTA L'immagine Docker è di circa 5 GB e il download può richiedere circa 15 minuti. Richiederà 25 GB di spazio su disco.
immagine=intel/oneapi-dlfdkit
la finestra mobile estrae "$immagine"

Utilizzo di contenitori con la riga di comando

Kit di strumenti per sviluppatori Intel® oneAPI DL Framework
Compilare ed eseguire direttamente i contenitori.

Quanto segue abilita la GPU, se disponibile, utilizzando –device=/dev/dri (potrebbe non essere disponibile in Linux* VM o Windows*). Il comando ti lascerà al prompt dei comandi, all'interno del contenitore, in modalità interattiva.

immagine=intel/oneapi-dlfdkit
# –device=/dev/dri abilita la gpu (se disponibile). Potrebbe non essere disponibile nella VM Linux o nella finestra mobile di Windows run –device=/dev/dri -it “$image”

Una volta nel contenitore, puoi interagire con esso usando Run a Sample Project utilizzando la riga di comando.

NOTA Potrebbe essere necessario includere le impostazioni del proxy prima di -it "$image" se sei dietro un proxy:

docker run -e http_proxy=”$http_proxy” -e https_proxy=”$https_proxy” -it “$immagine”

Utilizzo di Intel® Advisor, Intel® Inspector o VTune™ con i contenitori

Quando si utilizzano questi strumenti, è necessario fornire funzionalità aggiuntive al contenitore:

–cap-add=SYS_ADMIN –cap-add=SYS_PTRACE
docker esegui –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE \
–device=/dev/dri -it “$immagine”

Prossimi passi

Kit di strumenti per sviluppatori Intel® oneAPI DL Framework

Dopo aver costruito il tuo progetto, review Intel® oneAPI DL Framework Toolkit Codice Samples per comprendere le capacità di questo toolkit.

Avvisi e dichiarazioni di non responsabilità

Le tecnologie Intel potrebbero richiedere l'attivazione di hardware, software o servizi abilitati.
Nessun prodotto o componente può essere assolutamente sicuro.
I tuoi costi e risultati possono variare.

© Intel Corporation. Intel, il logo Intel e altri marchi Intel sono marchi di Intel Corporation o delle sue consociate. Altri nomi e marchi possono essere rivendicati come proprietà di altri.

Avviso di ottimizzazione

I compilatori Intel possono ottimizzare o meno allo stesso livello per i microprocessori non Intel per le ottimizzazioni che non sono univoche per i microprocessori Intel. Queste ottimizzazioni includono set di istruzioni SSE2, SSE3 e SSSE3 e altre ottimizzazioni. Intel non garantisce la disponibilità, la funzionalità o l'efficacia di alcuna ottimizzazione su microprocessori non prodotti da Intel. Le ottimizzazioni dipendenti dal microprocessore in questo prodotto sono destinate all'uso con i microprocessori Intel. Alcune ottimizzazioni non specifiche della microarchitettura Intel sono riservate ai microprocessori Intel. Si prega di fare riferimento alle Guide per l'utente e di riferimento del prodotto applicabile per ulteriori informazioni riguardanti i set di istruzioni specifici coperti da questo avviso.
Avviso revisione n. 20110804

Il presente documento non concede alcuna licenza (espressa o implicita, per preclusione o altro) su alcun diritto di proprietà intellettuale.

I prodotti descritti possono contenere difetti di progettazione o errori noti come errata che possono causare la deviazione del prodotto dalle specifiche pubblicate. Le errata caratterizzate correnti sono disponibili su richiesta.

Intel declina tutte le garanzie esplicite e implicite, incluse, a titolo esemplificativo, le garanzie implicite di commerciabilità, idoneità per uno scopo particolare e non violazione, nonché qualsiasi garanzia derivante dal corso delle prestazioni, dal modo di trattare o dall'uso commerciale.

 

Documenti / Risorse

Intel oneAPI DL Framework Developers Toolkit per Linux [pdf] Manuale del proprietario
oneAPI DL Framework Developers Toolkit per Linux, Framework Developers Toolkit per Linux, Developers Toolkit per Linux, Toolkit per Linux

Riferimenti

Lascia un commento

Il tuo indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *