Intel oneAPI DL Framework Developers Toolkit für Linux
Intel oneAPI DL Framework Developers Toolkit für Linux

Befolgen Sie diese Schritte für das Intel® oneAPI DL Framework Developer Toolkit:

Die folgenden Anweisungen gehen davon aus, dass Sie die Intel® oneAPI-Software installiert haben. Bitte sehen Sie sich ... an Intel oneAPI-Toolkits-Seite für Installationsoptionen.

  1. Konfigurieren Sie Ihr System
  2. Erstellen und ausführen alsample-Projekt über die Befehlszeile.

Einführung

Wenn Sie oneDNN und oneCCL s verwenden möchtenamples, müssen Sie die installieren Intel® oneAPI Basis-Toolkit. Das Basiskit enthält alle Komponenten des Intel® oneAPI DL Framework Developer Toolkit (DLFD Kit) mit allen erforderlichen Abhängigkeiten.

Wenn Sie die DL DevKit-Bibliotheken verwenden möchten, ohne die bereitgestellten samples, müssen Sie nur das DLFD-Kit installieren. Andernfalls installieren Sie die Intel® oneAPI Basis-Toolkit.

Dieses Toolkit ist eine Suite von Entwicklungsbibliotheken, die es schnell und einfach machen, ein Deep-Learning-Framework zu erstellen oder zu optimieren, das das letzte Quäntchen Leistung aus den neuesten Intel®-Prozessoren herausholt. Dieses Toolkit ermöglicht Deep Learning Framework mit flexiblen Optionen, einschließlich optimaler Leistung auf einer CPU oder GPU.

  • Intel® oneAPI Deep Neural Network Library
  • Intel® oneAPI Collective Communications Library

Intel® oneAPI Deep Neural Network Library

Die Intel® oneAPI Deep Neural Network Library ist eine Open-Source-Leistungsbibliothek für Deep-Learning-Anwendungen. Die Bibliothek enthält grundlegende Bausteine ​​für neuronale Netze, die für Intel® Architekturprozessoren und Intel® Prozessorgrafiken optimiert sind. Diese Bibliothek ist für Deep-Learning-Anwendungen und Framework-Entwickler gedacht, die daran interessiert sind, die Anwendungsleistung auf Intel-CPUs und -GPUs zu verbessern. Viele beliebte Deep-Learning-Frameworks sind in diese Bibliothek integriert.

Intel® oneAPI Collective Communications Library

Die Intel® oneAPI Collective Communications Library ist eine Bibliothek, die eine effiziente Implementierung von Kommunikationsmustern bietet, die beim Deep Learning verwendet werden.

  • Aufbauend auf der Intel® MPI-Bibliothek, ermöglicht die Verwendung anderer Kommunikationsbibliotheken.
  • Optimiert, um die Skalierbarkeit von Kommunikationsmustern voranzutreiben.
  • Funktioniert über verschiedene Verbindungen: Intel® Omni-Path-Architektur, InfiniBand* und Ethernet
  • Gemeinsame API zur Unterstützung von Deep-Learning-Frameworks (Caffe*, Theano*, Torch* usw.)
  • Dieses Paket umfasst das Intel® MLSL Software Development Kit (SDK) und die Intel® MPI Library Runtime-Komponenten.

Konfigurieren Sie Ihr System

Intel® oneAPI DL Framework-Entwickler-Toolkit
S laufenampDateien, die den Intel® oneAPI DPC++/C++ Compiler und Intel® Threading Building Blocks verwenden, müssen Sie die Intel® oneAPI Basis-Toolkit bevor Sie Ihr System konfigurieren.

Eine vollständige Liste der Systemanforderungen finden Sie unter Versionshinweise zur Intel® oneAPI Deep Neural Network Library.

Um Ihr System zu konfigurieren, müssen Sie:

  • Legen Sie Umgebungsvariablen für CPU/GPU oder FPGA fest
  • Installieren Sie für GPU-Benutzer GPU-Treiber
  • Deaktivieren Sie Hangcheck für Anwendungen mit lang andauernden GPU-Compute-Workloads
  • Fügen Sie für GPU-Benutzer einen Benutzer zur Videogruppe hinzu
Legen Sie Umgebungsvariablen für die CLI-Entwicklung fest

Für die Arbeit an einem Command Line Interface (CLI) werden die Tools in den oneAPI-Toolkits über Umgebungsvariablen konfiguriert. Richten Sie Ihre CLI-Umgebung ein, indem Sie das setvars-Skript beziehen:

Option 1: Source setvars.sh einmal pro Sitzung

Source setvars.sh jedes Mal, wenn Sie ein neues Terminalfenster öffnen:
Sie finden das Skript setvars.sh im Stammordner Ihrer oneAPI-Installation, normalerweise /opt/intel/oneapi/ für sudo- oder root-Benutzer und ~/intel/oneapi/ bei Installation als normaler Benutzer.

Für Root- oder Sudo-Installationen:
. /opt/intel/oneapi/setvars.sh
Für normale Benutzerinstallationen:
. ~/intel/oneapi/setvars.sh

Option 2: Einmaliges Setup für setvars.sh

Damit die Umgebung automatisch für Ihre Projekte eingerichtet wird, fügen Sie den Befehl source /setvars.sh in ein Startskript ein, wo er automatisch aufgerufen wird (ersetzen Sie ihn durch den Pfad zu Ihrem oneAPI-Installationsspeicherort). Die Standardinstallationsorte sind /opt/intel/oneapi/ für sudo- oder root-Benutzer und ~/intel/oneapi/, wenn sie als normaler Benutzer installiert werden.

Zum Beispielample können Sie den Befehl source /setvars.sh zu Ihrer ~/.bashrc oder ~/.bashrc_pro hinzufügenfile oder ~/.profile file. Um die Einstellungen für alle Konten auf Ihrem System dauerhaft zu machen, erstellen Sie ein einzeiliges .sh-Skript in /etc/pro Ihres Systemsfile.d-Ordner, aus dem setvars.sh stammt (weitere Einzelheiten finden Sie unter Ubuntu-Dokumentation zu Umgebungsvariablen).

NOTIZ
Das Skript setvars.sh kann mithilfe einer Konfiguration verwaltet werden file, was besonders hilfreich ist, wenn Sie bestimmte Versionen von Bibliotheken oder des Compilers initialisieren müssen, anstatt standardmäßig auf die „neueste“ Version zu setzen.
Für weitere Einzelheiten siehe Verwenden einer Konfiguration File um Setvars.sh zu verwalten.. Wenn Sie die Umgebung in einer Nicht-POSIX-Shell einrichten müssen, siehe Einrichtung der oneAPI-Entwicklungsumgebung für weitere Konfigurationsmöglichkeiten.

Für GPU-Benutzer: GPU-Treiber installieren

Wenn Sie die Anweisungen im Installationshandbuch zur Installation von GPU-Treibern befolgt haben, können Sie diesen Schritt überspringen. Wenn Sie die Treiber nicht installiert haben, befolgen Sie die Anweisungen in der Installationshandbuch.

GPU: Hangcheck deaktivieren

Dieser Abschnitt gilt nur für Anwendungen mit lang andauernden GPU-Compute-Workloads in nativen Umgebungen. Es wird nicht für Virtualisierungen oder andere standardmäßige GPU-Verwendungen wie Spiele empfohlen.

Eine Arbeitslast, die mehr als vier Sekunden für die Ausführung der GPU-Hardware benötigt, ist eine lang andauernde Arbeitslast. Standardmäßig werden einzelne Threads, die sich als lang andauernde Workloads qualifizieren, als hängend betrachtet und beendet.
Durch Deaktivieren des Hangcheck-Zeitlimits können Sie dieses Problem vermeiden.

NOTIZ Wenn das System neu gestartet wird, wird Hangcheck automatisch aktiviert. Sie müssen Hangcheck nach jedem Neustart erneut deaktivieren oder den Anweisungen zum dauerhaften Deaktivieren von Hangcheck (über mehrere Neustarts hinweg) folgen.

Hangcheck bis zum nächsten Neustart deaktivieren:
sudo sh -c „echo N> /sys/module/i915/parameters/enable_hangcheck“

So deaktivieren Sie Hangcheck über mehrere Neustarts hinweg:

NOTIZ Wenn der Kernel aktualisiert wird, wird Hangcheck automatisch aktiviert. Führen Sie das folgende Verfahren nach jedem Kernel-Update aus, um sicherzustellen, dass Hangcheck deaktiviert ist.

  1. Öffnen Sie ein Terminal.
  2. Öffnen Sie den Grub file in /etc/default.
  3. Im Grub file, finden Sie die Zeile GRUB_CMDLINE_LINUX_DEFAULT="".
    Geben Sie diesen Text zwischen den Anführungszeichen ("") ein:
    i915.enable_hangcheck=0
  4. Führe diesen Befehl aus:
    sudo update-grub
  5. Starten Sie das System neu. Hangcheck bleibt deaktiviert.
GPU: Benutzer zur Videogruppe hinzufügen

Bei GPU-Compute-Workloads haben (normale) Nicht-Root-Benutzer normalerweise keinen Zugriff auf das GPU-Gerät. Stellen Sie sicher, dass Sie Ihre normalen Benutzer zur Videogruppe hinzufügen; Andernfalls schlagen für das GPU-Gerät kompilierte Binärdateien fehl, wenn sie von einem normalen Benutzer ausgeführt werden. Um dieses Problem zu beheben, fügen Sie den Nicht-Root-Benutzer zur Videogruppe hinzu: sudo usermod -a -G video

Die aktuellste Anforderungsliste finden Sie unter Intel® oneAPI Collective Communications Library Versionshinweise.

Rennen wieampdas Projekt
Rennen wieample-Projekt über die Befehlszeile.

Rennen wieample Project über die Befehlszeile

Intel® oneAPI DL Framework-Entwickler-Toolkit

Wenn Sie oneDNN und oneCCL s verwenden möchtenamples, müssen Sie die installieren Intel® oneAPI Basis-Toolkit (BaseKit).
Das BaseKit enthält alle Komponenten des Intel® oneAPI DL Framework Developer Toolkit mit allen erforderlichen Abhängigkeiten.

Nachdem das BaseKit installiert ist, können Sie als ausführenample mit den Anweisungen in Erstellen und Ausführen eines Intel® oneAPI DL Framework Developer Toolkit Sample Verwenden der Befehlszeile.

Container verwenden

Intel® oneAPI DL Framework-Entwickler-Toolkit

Mit Containern können Sie Umgebungen zum Erstellen, Ausführen und Profiling von oneAPI-Anwendungen einrichten und konfigurieren und diese mithilfe von Images verteilen:

  • Sie können ein Image installieren, das eine Umgebung enthält, die mit allen erforderlichen Tools vorkonfiguriert ist, und dann innerhalb dieser Umgebung entwickeln.
  • Sie können eine Umgebung speichern und das Image verwenden, um diese Umgebung ohne zusätzliche Einrichtung auf einen anderen Computer zu verschieben.
  • Sie können Container je nach Bedarf mit verschiedenen Sätzen von Sprachen und Laufzeiten, Analysetools oder anderen Tools vorbereiten.
Docker*-Image herunterladen

Sie können ein Docker*-Image von herunterladen Container-Repository.

NOTIZ Das Docker-Image ist ca. 5 GB groß und das Herunterladen kann ca. 15 Minuten dauern. Es werden 25 GB Speicherplatz benötigt.
image=intel/oneapi-dlfdkit
Docker-Pull „$image“

Verwenden von Containern mit der Befehlszeile

Intel® oneAPI DL Framework-Entwickler-Toolkit
Kompilieren und führen Sie die Container direkt aus.

Das Folgende aktiviert die GPU, falls verfügbar, mit –device=/dev/dri (möglicherweise nicht verfügbar in Linux* VM oder Windows*). Der Befehl lässt Sie an einer Eingabeaufforderung innerhalb des Containers im interaktiven Modus zurück.

image=intel/oneapi-dlfdkit
# –device=/dev/dri aktiviert die GPU (falls verfügbar). Möglicherweise nicht verfügbar in Linux VM oder Windows Docker-Ausführung –device=/dev/dri -it „$image“

Sobald Sie sich im Container befinden, können Sie mit Run a S mit ihm interagierenample Project über die Befehlszeile.

NOTIZ Möglicherweise müssen Sie Proxy-Einstellungen vor -it „$image“ einfügen, wenn Sie sich hinter einem Proxy befinden:

docker run -e http_proxy=“$http_proxy“ -e https_proxy=“$https_proxy“ -it „$image“

Verwenden von Intel® Advisor, Intel® Inspector oder VTune™ mit Containern

Bei Verwendung dieser Tools müssen dem Container zusätzliche Funktionen bereitgestellt werden:

–cap-add=SYS_ADMIN –cap-add=SYS_PTRACE
Docker run –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE \
–device=/dev/dri -it „$image“

Nächste Schritte

Intel® oneAPI DL Framework-Entwickler-Toolkit

Nachdem Sie Ihr eigenes Projekt erstellt haben, review Intel® oneAPI-DL-Framework-Toolkit-Code Samples um die Möglichkeiten dieses Toolkits zu verstehen.

Hinweise und Haftungsausschlüsse

Für Intel-Technologien ist möglicherweise eine aktivierte Hardware-, Software- oder Dienstaktivierung erforderlich.
Kein Produkt oder keine Komponente kann absolut sicher sein.
Ihre Kosten und Ergebnisse können variieren.

© Intel Corporation. Intel, das Intel-Logo und andere Intel-Marken sind Marken der Intel Corporation oder ihrer Tochtergesellschaften. Andere Namen und Marken können als Eigentum anderer beansprucht werden.

Hinweis zur Optimierung

Die Compiler von Intel können für Optimierungen, die nicht nur für Intel-Mikroprozessoren gelten, im gleichen Maße für Nicht-Intel-Mikroprozessoren optimieren oder nicht. Diese Optimierungen umfassen SSE2-, SSE3- und SSSE3-Befehlssätze und andere Optimierungen. Intel garantiert nicht die Verfügbarkeit, Funktionalität oder Wirksamkeit von Optimierungen auf Mikroprozessoren, die nicht von Intel hergestellt wurden. Mikroprozessorabhängige Optimierungen in diesem Produkt sind für die Verwendung mit Intel-Mikroprozessoren vorgesehen. Bestimmte Optimierungen, die nicht spezifisch für die Intel-Mikroarchitektur sind, sind Intel-Mikroprozessoren vorbehalten. Weitere Informationen zu den spezifischen Befehlssätzen, die von dieser Mitteilung abgedeckt werden, finden Sie in den Benutzer- und Referenzhandbüchern des jeweiligen Produkts.
Beachten Sie Revision Nr. 20110804

Durch dieses Dokument wird keine Lizenz (weder ausdrücklich noch stillschweigend, durch Rechtsverwirkung oder auf andere Weise) an geistigen Eigentumsrechten gewährt.

Die beschriebenen Produkte können Konstruktionsfehler oder Fehler (sogenannte Errata) enthalten, die dazu führen können, dass das Produkt von den veröffentlichten Spezifikationen abweicht. Aktuelle gekennzeichnete Errata sind auf Anfrage erhältlich.

Intel schließt alle ausdrücklichen und stillschweigenden Gewährleistungen aus, einschließlich, aber nicht beschränkt auf die stillschweigenden Gewährleistungen der Marktgängigkeit, der Eignung für einen bestimmten Zweck und der Nichtverletzung von Rechten Dritter, sowie jegliche Gewährleistung, die sich aus dem Verlauf der Leistung, dem Geschäftsverlauf oder der Verwendung im Handel ergibt.

 

Dokumente / Ressourcen

Intel oneAPI DL Framework Developers Toolkit für Linux [pdf] Bedienungsanleitung
oneAPI DL Framework-Entwickler-Toolkit für Linux, Framework-Entwickler-Toolkit für Linux, Entwickler-Toolkit für Linux, Toolkit für Linux

Verweise

Hinterlasse einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind markiert *