Linux 用インテル oneAPI DL フレームワーク開発者ツールキット
インテル® oneAPI DL フレームワーク開発者ツールキットについては、次の手順に従います。
次の手順は、インテル® oneAPI ソフトウェアがインストールされていることを前提としています。 をご覧ください インテル oneAPI ツールキット ページ インストールオプション用。
- システムを構成する
- としてビルドして実行するampコマンド ラインを使用してファイル プロジェクトを作成します。
導入
oneDNN および oneCCL を使用する場合ampファイルをインストールする必要があります インテル® oneAPI ベース・ツールキット. 基本キットには、必要なすべての依存関係を備えたすべてのインテル® oneAPI DL フレームワーク開発者ツールキット (DLFD キット) コンポーネントが含まれています。
提供されている s を試さずに DL DevKit ライブラリを使用したい場合ampDLFD キットをインストールするだけです。 それ以外の場合は、 インテル® oneAPI ベース・ツールキット.
このツールキットは、最新のインテル® プロセッサーのパフォーマンスを最大限に引き出すディープラーニング フレームワークを迅速かつ簡単に構築または最適化するための開発ライブラリーのスイートです。 このツールキットは、CPU または GPU での最適なパフォーマンスを含む柔軟なオプションを備えたディープ ラーニング フレームワークを有効にします。
- インテル® oneAPI ディープ・ニューラル・ネットワーク・ライブラリー
- インテル® oneAPI 集合通信ライブラリー
インテル® oneAPI ディープ・ニューラル・ネットワーク・ライブラリー
Intel® oneAPI Deep Neural Network Library は、ディープラーニング アプリケーション向けのオープンソース パフォーマンス ライブラリです。 このライブラリーには、インテル® アーキテクチャー・プロセッサーおよびインテル® プロセッサー・グラフィックス向けに最適化されたニューラル・ネットワークの基本的なビルディング・ブロックが含まれています。 このライブラリは、Intel CPU および GPU でのアプリケーション パフォーマンスの向上に関心のあるディープ ラーニング アプリケーションおよびフレームワーク開発者を対象としています。 多くの一般的な深層学習フレームワークがこのライブラリに統合されています。
インテル® oneAPI 集合通信ライブラリー
Intel® oneAPI Collective Communications Library は、ディープラーニングで使用される通信パターンを効率的に実装するライブラリです。
- インテル® MPI ライブラリーの上に構築されているため、他の通信ライブラリーを使用できます。
- 通信パターンのスケーラビリティを促進するように最適化されています。
- さまざまな相互接続で動作: Intel® Omni-Path アーキテクチャー、InfiniBand*、イーサネット
- 深層学習フレームワーク (Caffe*、Theano*、Torch* など) をサポートする共通 API
- このパッケージは、インテル® MLSL ソフトウェア開発キット (SDK) とインテル® MPI ライブラリー・ランタイムのコンポーネントで構成されています。
システムを構成する
インテル® oneAPI DL フレームワーク開発者ツールキット
を実行するにはampインテル® oneAPI DPC++/C++ コンパイラーとインテル® スレッディング・ビルディング・ブロックを使用してファイルを作成するには、 インテル® oneAPI ベース・ツールキット システムを構成する前に。
システム要件の完全なリストについては、 インテル® oneAPI ディープ・ニューラル・ネットワーク・ライブラリーのリリースノート.
システムを構成するには、次のことを行う必要があります。
- CPU/GPU または FPGA の環境変数を設定する
- GPU ユーザーの場合は、GPU ドライバーをインストールします
- GPU コンピューティング ワークロードが長時間実行されるアプリケーションの Hangcheck を無効にする
- GPU ユーザーの場合、ビデオ グループにユーザーを追加します。
CLI 開発用の環境変数の設定
コマンド ライン インターフェイス (CLI) で作業する場合、oneAPI ツールキットのツールは環境変数を介して構成されます。 setvars スクリプトを取得して、CLI 環境をセットアップします。
オプション 1: セッションごとに XNUMX 回、setvars.sh をソース化する
新しいターミナル ウィンドウを開くたびに setvars.sh をソースします。
setvars.sh スクリプトは、oneAPI インストールのルート フォルダーにあります。これは通常、sudo またはルート ユーザーの場合は /opt/intel/oneapi/、通常のユーザーとしてインストールした場合は ~/intel/oneapi/ です。
root または sudo インストールの場合:
。 /opt/intel/oneapi/setvars.sh
通常のユーザーによるインストールの場合:
。 ~/intel/oneapi/setvars.sh
オプション 2: setvars.sh の XNUMX 回限りのセットアップ
プロジェクトの環境を自動的にセットアップするには、コマンド source /setvars.sh を、自動的に呼び出される起動スクリプトに含めます (oneAPI のインストール場所へのパスに置き換えます)。 デフォルトのインストール場所は、sudo または root ユーザーの場合は /opt/ intel/oneapi/、通常のユーザーとしてインストールする場合は ~/intel/oneapi/ です。
例えばampソース /setvars.sh コマンドを ~/.bashrc または ~/.bashrc_pro に追加できます。file または ~/.profile file. システム上のすべてのアカウントの設定を永続的にするには、システムの /etc/pro に XNUMX 行の .sh スクリプトを作成します。filesetvars.sh をソースとする .d フォルダー (詳細については、 環境変数に関する Ubuntu ドキュメント).
注記
setvars.sh スクリプトは、構成を使用して管理できます fileこれは、「最新」バージョンにデフォルト設定するのではなく、特定のバージョンのライブラリまたはコンパイラを初期化する必要がある場合に特に役立ちます。
詳細については、 構成の使用 File Setvars.sh を管理します。. 非 POSIX シェルで環境をセットアップする必要がある場合は、以下を参照してください。 oneAPI 開発環境のセットアップ その他の構成オプションについては。
GPU ユーザーの場合、GPU ドライバーをインストールします
インストール ガイドの手順に従って GPU ドライバーをインストールした場合は、この手順を省略できます。 ドライバーをインストールしていない場合は、 インストールガイド.
GPU: ハングチェックを無効にする
このセクションは、ネイティブ環境で GPU コンピューティング ワークロードが長時間実行されるアプリケーションにのみ適用されます。 ゲームなど、GPU の仮想化やその他の標準的な用途にはお勧めできません。
GPU ハードウェアの実行に XNUMX 秒以上かかるワークロードは、実行時間の長いワークロードです。 デフォルトでは、実行時間の長いワークロードとして認定された個々のスレッドはハングしていると見なされ、終了します。
ハングチェックのタイムアウト期間を無効にすることで、この問題を回避できます。
注記 システムを再起動すると、ハングチェックが自動的に有効になります。 再起動するたびにハングチェックを再度無効にするか、指示に従ってハングチェックを永続的に無効にする必要があります (複数の再起動にわたって)。
次回の再起動までハングチェックを無効にするには:
sudo sh -c “echo N> /sys/module/i915/parameters/enable_hangcheck”
複数回の再起動でハングチェックを無効にするには:
注記 カーネルが更新されると、ハングチェックが自動的に有効になります。 カーネルを更新するたびに以下の手順を実行して、ハングチェックが無効になっていることを確認します。
- ターミナルを開きます。
- グラブを開く file /etc/default にあります。
- グラブで file、行 GRUB_CMDLINE_LINUX_DEFAULT="" を見つけます。
引用符 ("") の間に次のテキストを入力します。
i915.enable_hangcheck=0 - 次のコマンドを実行します。
sudo アップデート-grub - システムを再起動します。 ハングチェックは無効のままです。
GPU: ビデオ グループにユーザーを追加
GPU コンピューティング ワークロードの場合、通常、root 以外の (通常の) ユーザーは GPU デバイスにアクセスできません。 通常のユーザーを必ずビデオ グループに追加してください。 そうしないと、GPU デバイス用にコンパイルされたバイナリを通常のユーザーが実行すると失敗します。 この問題を解決するには、root 以外のユーザーをビデオ グループに追加します: sudo usermod -a -G video
最新の要件リストについては、 インテル® oneAPI 集合通信ライブラリーのリリースノート.
S を実行します。ampルプロジェクト
として実行ampコマンド ラインを使用してファイル プロジェクトを作成します。
S を実行します。ampコマンド ラインを使用した le プロジェクト
インテル® oneAPI DL フレームワーク開発者ツールキット
oneDNN および oneCCL を使用する場合ampファイルをインストールする必要があります インテル® oneAPI ベース ツールキット (BaseKit).
BaseKit には、インテル® oneAPI DL フレームワーク開発者ツールキットのすべてのコンポーネントと、必要なすべての依存関係が含まれています。
BaseKit をインストールしたら、次のように実行できます。ampの指示を使用してファイル インテル® oneAPI DL Framework 開発者ツールキット S をビルドして実行するampコマンドラインの使用.
コンテナの使用
インテル® oneAPI DL フレームワーク開発者ツールキット
コンテナーを使用すると、oneAPI アプリケーションを構築、実行、プロファイリングするための環境をセットアップおよび構成し、イメージを使用してそれらを配布できます。
- 必要なすべてのツールで事前構成された環境を含むイメージをインストールし、その環境内で開発できます。
- 環境を保存し、イメージを使用して、追加のセットアップなしでその環境を別のマシンに移動できます。
- 必要に応じて、さまざまな言語とランタイムのセット、分析ツール、またはその他のツールを含むコンテナーを準備できます。
Docker* イメージのダウンロード
以下から Docker* イメージをダウンロードできます。 コンテナ リポジトリ.
注記 Docker イメージは最大 5 GB で、ダウンロードには最大 15 分かかる場合があります。 25 GB のディスク容量が必要です。
image=インテル/oneapi-dlfdkit
ドッカープル「$image」
コマンドラインでコンテナを使用する
インテル® oneAPI DL フレームワーク開発者ツールキット
コンテナを直接コンパイルして実行します。
以下は、利用可能な場合、–device=/dev/dri を使用して GPU を有効にします (Linux* VM または Windows* では利用できない場合があります)。 コマンドを実行すると、コンテナー内の対話モードのコマンド プロンプトが表示されます。
image=インテル/oneapi-dlfdkit
# –device=/dev/dri は GPU を有効にします (利用可能な場合)。 Linux VM または Windows docker run –device=/dev/dri -it “$image” では利用できない場合があります
コンテナーに入ったら、Run a S を使用して操作できます。ampコマンド ラインを使用した le プロジェクト。
注記 プロキシの背後にいる場合は、-it “$image” の前にプロキシ設定を含める必要がある場合があります。
docker run -e http_proxy=”$http_proxy” -e https_proxy=”$https_proxy” -it “$image”
コンテナーでのインテル® Advisor、インテル® Inspector、または VTune™ の使用
これらのツールを使用する場合、追加の機能をコンテナーに提供する必要があります。
–cap-add=SYS_ADMIN –cap-add=SYS_PTRACE
docker run –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE \
–device=/dev/dri -it “$image”
次のステップ
インテル® oneAPI DL フレームワーク開発者ツールキット
独自のプロジェクトをビルドしたら、再view インテル® oneAPI DL フレームワーク・ツールキット コード Sampレ このツールキットの機能を理解する。
通知と免責事項
インテルのテクノロジーでは、有効なハードウェア、ソフトウェア、またはサービスのアクティベーションが必要になる場合があります。
絶対に安全な製品やコンポーネントはありません。
費用と結果は異なる場合があります。
© インテル コーポレーション。 Intel、Intel ロゴ、およびその他の Intel マークは、Intel Corporation またはその子会社の商標です。 他の名前およびブランドは、他者の所有物であると主張される場合があります。
最適化通知
Intel のコンパイラは、Intel マイクロプロセッサに固有ではない最適化のために、Intel 以外のマイクロプロセッサに対して同程度に最適化する場合としない場合があります。 これらの最適化には、SSE2、SSE3、および SSSE3 命令セットとその他の最適化が含まれます。 インテルは、インテル製以外のマイクロプロセッサーでの最適化の可用性、機能、または有効性を保証しません。 この製品のマイクロプロセッサ依存の最適化は、Intel マイクロプロセッサでの使用を目的としています。 Intel マイクロアーキテクチャに固有ではない特定の最適化は、Intel マイクロプロセッサ用に予約されています。 この通知の対象となる特定の命令セットの詳細については、該当する製品のユーザー ガイドおよびリファレンス ガイドを参照してください。
通知改訂 #20110804
この文書によって、いかなる知的財産権に対するライセンス(明示的または黙示的、禁反言またはその他の方法による)も付与されることはありません。
記載されている製品には、エラッタと呼ばれる設計上の欠陥やエラーが含まれている可能性があり、製品が公表されている仕様から逸脱する可能性があります。現在特徴付けられているエラッタは、リクエストに応じて入手できます。
インテルは、商品性、特定の目的への適合性、および非侵害の黙示の保証、および履行過程、取引過程、または商取引での使用から生じる保証を含むがこれらに限定されない、すべての明示的および黙示的保証を否認します。
ドキュメント / リソース
![]() |
Linux 用インテル oneAPI DL フレームワーク開発者ツールキット [pdf] 取扱説明書 oneAPI DL フレームワーク開発者ツールキット for Linux、フレームワーク開発者ツールキット for Linux、開発者ツールキット for Linux、ツールキット for Linux |