Toolkit ng Mga Developer ng Intel oneAPI DL Framework para sa Linux
Toolkit ng Mga Developer ng Intel oneAPI DL Framework para sa Linux

Sundin ang Mga Hakbang Ito para sa Toolkit ng Developer ng Intel® oneAPI DL Framework:

Ipinapalagay ng mga sumusunod na tagubilin na na-install mo ang Intel® oneAPI software. Mangyaring tingnan ang Pahina ng Intel oneAPI Toolkits para sa mga opsyon sa pag-install.

  1. I-configure ang Iyong System
  2. Bumuo at tumakbo bilangampang proyekto gamit ang Command Line.

Panimula

Kung gusto mong gumamit ng oneDNN at oneCCL samples, dapat mong i-install ang Intel® oneAPI Base Toolkit. Ang Base Kit ay naglalaman ng lahat ng bahagi ng Intel® oneAPI DL Framework Developer Toolkit (DLFD Kit) na may lahat ng kinakailangang dependency.

Kung nais mong gamitin ang mga aklatan ng DL DevKit nang hindi sinusubukan ang ibinigay na samples, kailangan mo lang i-install ang DLFD Kit. Kung hindi, i-install ang Intel® oneAPI Base Toolkit.

Ang toolkit na ito ay isang hanay ng mga library ng pag-unlad na ginagawang mabilis at madali ang pagbuo o pag-optimize ng isang malalim na balangkas sa pag-aaral na nakakakuha ng bawat huling onsa ng pagganap mula sa mga pinakabagong Intel® processor. Ang toolkit na ito ay nagbibigay-daan sa Deep Learning Framework na may mga flexible na opsyon kabilang ang pinakamainam na performance sa isang CPU o GPU.

  • Intel® oneAPI Deep Neural Network Library
  • Intel® oneAPI Collective Communications Library

Intel® oneAPI Deep Neural Network Library

Ang Intel® oneAPI Deep Neural Network Library ay isang open-source na library ng pagganap para sa mga deep learning application. Kasama sa library ang mga pangunahing building block para sa mga neural network na na-optimize para sa Intel® Architecture Processors at Intel® Processor Graphics. Ang library na ito ay inilaan para sa mga deep learning na application at framework developer na interesado sa pagpapabuti ng performance ng application sa mga Intel CPU at GPU. Maraming sikat na Deep Learning framework ang isinama sa library na ito.

Intel® oneAPI Collective Communications Library

Ang Intel® oneAPI Collective Communications Library ay isang library na nagbibigay ng mahusay na pagpapatupad ng mga pattern ng komunikasyon na ginagamit sa malalim na pag-aaral.

  • Binuo sa ibabaw ng Intel® MPI Library, nagbibigay-daan para sa paggamit ng iba pang mga library ng komunikasyon.
  • Na-optimize upang himukin ang scalability ng mga pattern ng komunikasyon.
  • Gumagana sa iba't ibang interconnect: Intel® Omni-Path Architecture, InfiniBand*, at Ethernet
  • Karaniwang API para suportahan ang Deep Learning frameworks (Caffe*, Theano*, Torch*, atbp.)
  • Binubuo ng package na ito ang Intel® MLSL Software Development Kit (SDK) at ang mga bahagi ng Intel® MPI Library Runtime.

I-configure ang Iyong System

Toolkit ng Developer ng Intel® oneAPI DL Framework
Upang tumakbo sampgamit ang Intel® oneAPI DPC++/C++ Compiler at Intel® Threading Building Blocks, dapat mong i-install ang Intel® oneAPI Base Toolkit bago i-configure ang iyong system.

Para sa kumpletong listahan ng mga kinakailangan ng system, tingnan ang Mga Tala sa Paglabas ng Intel® oneAPI Deep Neural Network Library.

Upang i-configure ang iyong system, kailangan mong:

  • Magtakda ng Mga Variable ng Environment para sa CPU/GPU o FPGA
  • Para sa mga gumagamit ng GPU, i-install ang mga driver ng GPU
  • Huwag paganahin ang Hangcheck para sa mga application na may matagal nang tumatakbong GPU compute workload
  • Para sa mga user ng GPU, magdagdag ng user sa video group
Magtakda ng Mga Variable ng Kapaligiran para sa Pag-develop ng CLI

Para sa pagtatrabaho sa isang Command Line Interface (CLI), ang mga tool sa oneAPI toolkit ay na-configure sa pamamagitan ng mga variable ng kapaligiran. I-set up ang iyong CLI environment sa pamamagitan ng pagkuha ng setvars script:

Opsyon 1: Pinagmulan setvars.sh isang beses bawat session

Pinagmulan setvars.sh sa tuwing magbubukas ka ng bagong terminal window:
Mahahanap mo ang setvars.sh script sa root folder ng iyong oneAPI installation, na karaniwang /opt/ intel/oneapi/ para sa sudo o root user at ~/intel/oneapi/ kapag naka-install bilang normal na user.

Para sa root o sudo installation:
. /opt/intel/oneapi/setvars.sh
Para sa normal na pag-install ng user:
. ~/intel/oneapi/setvars.sh

Opsyon 2: Isang beses na pag-setup para sa setvars.sh

Upang awtomatikong mai-set up ang kapaligiran para sa iyong mga proyekto, isama ang command source /setvars.sh sa isang startup script kung saan ito ay awtomatikong i-invoke (palitan ng path sa iyong oneAPI na lokasyon ng pag-install). Ang mga default na lokasyon ng pag-install ay /opt/ intel/oneapi/ para sa sudo o root user at ~/intel/oneapi/ kapag naka-install bilang isang normal na user.

Para kay example, maaari mong idagdag ang source /setvars.sh command sa iyong ~/.bashrc o ~/.bashrc_profile o ~/.profile file. Upang gawing permanente ang mga setting para sa lahat ng account sa iyong system, lumikha ng isang linyang .sh na script sa /etc/pro ng iyong systemfile.d folder na pinagmumulan ng setvars.sh (para sa higit pang mga detalye, tingnan Dokumentasyon ng Ubuntu sa Environment Variables).

TANDAAN
Maaaring pamahalaan ang setvars.sh script gamit ang isang configuration file, na partikular na nakakatulong kung kailangan mong simulan ang mga partikular na bersyon ng mga aklatan o ang compiler, sa halip na mag-default sa "pinakabagong" bersyon.
Para sa karagdagang detalye, tingnan Paggamit ng Configuration File upang Pamahalaan ang Setvars.sh.. Kung kailangan mong i-setup ang environment sa isang non-POSIX shell, tingnan OneAPI Development Environment Setup para sa higit pang mga pagpipilian sa pagsasaayos.

Para sa Mga Gumagamit ng GPU, Mag-install ng Mga Driver ng GPU

Kung sinunod mo ang mga tagubilin sa Gabay sa Pag-install upang mag-install ng Mga Driver ng GPU, maaari mong laktawan ang hakbang na ito. Kung hindi mo pa na-install ang mga driver, sundin ang mga direksyon sa Gabay sa Pag-install.

GPU: Huwag paganahin ang Hangcheck

Nalalapat lang ang seksyong ito sa mga application na may matagal nang tumatakbong GPU compute workload sa mga native na kapaligiran. Hindi ito inirerekomenda para sa mga virtualization o iba pang karaniwang paggamit ng GPU, gaya ng paglalaro.

Ang workload na tumatagal ng higit sa apat na segundo para maipatupad ang GPU hardware ay isang mahabang workload. Bilang default, ang mga indibidwal na thread na kwalipikado bilang mga matagal nang workload ay itinuturing na nakabitin at winakasan.
Sa pamamagitan ng hindi pagpapagana sa hangcheck timeout period, maiiwasan mo ang problemang ito.

TANDAAN Kung ang system ay na-reboot, hangcheck ay awtomatikong pinagana. Dapat mong i-disable muli ang hangcheck pagkatapos ng bawat pag-reboot o sundin ang mga direksyon upang patuloy na huwag paganahin ang hangcheck (sa maraming pag-reboot).

Upang huwag paganahin ang hangcheck hanggang sa susunod na pag-reboot:
sudo sh -c “echo N> /sys/module/i915/parameters/enable_hangcheck”

Upang i-disable ang hangcheck sa maraming pag-reboot:

TANDAAN Kung ang kernel ay na-update, hangcheck ay awtomatikong pinagana. Patakbuhin ang pamamaraan sa ibaba pagkatapos ng bawat pag-update ng kernel upang matiyak na hindi pinagana ang hangcheck.

  1. Magbukas ng terminal.
  2. Buksan ang grub file sa /etc/default.
  3. Sa grub file, hanapin ang linyang GRUB_CMDLINE_LINUX_DEFAULT=””.
    Ilagay ang tekstong ito sa pagitan ng mga panipi (“”):
    i915.enable_hangcheck=0
  4. Patakbuhin ang command na ito:
    sudo update-grub
  5. I-reboot ang system. Nananatiling hindi pinagana ang Hangcheck.
GPU: Magdagdag ng User sa Video Group

Para sa mga GPU compute workload, ang mga user na hindi root (normal) ay karaniwang walang access sa GPU device. Tiyaking idagdag ang iyong (mga) normal na user sa pangkat ng video; kung hindi, ang mga binary na pinagsama-sama para sa GPU device ay mabibigo kapag naisakatuparan ng isang normal na user. Upang ayusin ang problemang ito, idagdag ang non-root na user sa pangkat ng video: sudo usermod -a -G video

Para sa pinaka-up-to-date na listahan ng mga kinakailangan, tingnan ang Mga Tala sa Paglabas ng Intel® oneAPI Collective Communications Library.

Patakbuhin ang isang Sampang Proyekto
Tumakbo bilangampang proyekto gamit ang Command Line.

Patakbuhin ang isang Sample Project Gamit ang Command Line

Toolkit ng Developer ng Intel® oneAPI DL Framework

Kung gusto mong gumamit ng oneDNN at oneCCL samples, dapat mong i-install ang Intel® oneAPI Base Toolkit (BaseKit).
Ang BaseKit ay naglalaman ng lahat ng bahagi ng Intel® oneAPI DL Framework Developer Toolkit na may lahat ng kinakailangang dependency.

Matapos mai-install ang BaseKit, maaari kang tumakbo bilangampgamit ang mga tagubilin sa Bumuo at Magpatakbo ng Intel® oneAPI DL Framework Developer Toolkit Sample Gamit ang Command Line.

Paggamit ng mga Lalagyan

Toolkit ng Developer ng Intel® oneAPI DL Framework

Nagbibigay-daan sa iyo ang mga container na mag-set up at mag-configure ng mga environment para sa pagbuo, pagpapatakbo at pag-profile ng mga oneAPI application at ipamahagi ang mga ito gamit ang mga larawan:

  • Maaari kang mag-install ng isang imahe na naglalaman ng isang kapaligiran na na-pre-configure kasama ang lahat ng mga tool na kailangan mo, pagkatapos ay bumuo sa loob ng kapaligiran na iyon.
  • Maaari mong i-save ang isang kapaligiran at gamitin ang imahe upang ilipat ang kapaligiran na iyon sa isa pang makina nang walang karagdagang pag-setup.
  • Maaari kang maghanda ng mga container na may iba't ibang hanay ng mga wika at runtime, mga tool sa pagsusuri, o iba pang mga tool, kung kinakailangan.
I-download ang Larawan ng Docker*

Maaari kang mag-download ng imahe ng Docker* mula sa Imbakan ng mga lalagyan.

TANDAAN Ang imahe ng Docker ay ~5 GB at maaaring tumagal ng ~15 minuto upang ma-download. Mangangailangan ito ng 25 GB ng disk space.
image=intel/oneapi-dlfdkit
docker pull "$image"

Paggamit ng mga Container na may Command Line

Toolkit ng Developer ng Intel® oneAPI DL Framework
I-compile at patakbuhin nang direkta ang mga lalagyan.

Ang nasa ibaba ay nagbibigay-daan sa GPU, kung available, gamit ang –device=/dev/dri (maaaring hindi available sa Linux* VM o Windows*). Iiwan ka ng command sa isang command prompt, sa loob ng container, sa interactive na mode.

image=intel/oneapi-dlfdkit
# –device=/dev/dri ay nagbibigay-daan sa gpu (kung magagamit). Maaaring hindi available sa Linux VM o Windows docker run –device=/dev/dri -it “$image”

Kapag nasa container, maaari kang makipag-ugnayan dito gamit ang Run a Sample Project Gamit ang Command Line.

TANDAAN Maaaring kailanganin mong isama ang mga setting ng proxy bago -it "$image"kung ikaw ay nasa likod ng isang proxy:

docker run -e http_proxy=”$http_proxy” -e https_proxy=”$https_proxy” -it “$image”

Gamit ang Intel® Advisor, Intel® Inspector o VTune™ na may Mga Container

Kapag ginagamit ang mga tool na ito, kailangang magbigay ng mga karagdagang kakayahan sa lalagyan:

–cap-add=SYS_ADMIN –cap-add=SYS_PTRACE
docker run –cap-add=SYS_ADMIN –cap-add=SYS_PTRACE \
–device=/dev/dri -it “$imahe”

Mga Susunod na Hakbang

Toolkit ng Developer ng Intel® oneAPI DL Framework

Pagkatapos mong bumuo ng iyong sariling proyekto, muliview Intel® oneAPI DL Framework Toolkit Code Samples upang maunawaan ang mga kakayahan ng toolkit na ito.

Mga Paunawa at Disclaimer

Ang mga teknolohiyang Intel ay maaaring mangailangan ng pag-activate ng hardware, software o serbisyo.
Walang produkto o bahagi ang maaaring maging ganap na ligtas.
Ang iyong mga gastos at resulta ay maaaring magkakaiba.

© Intel Corporation. Ang Intel, ang logo ng Intel, at iba pang mga marka ng Intel ay mga trademark ng Intel Corporation o mga subsidiary nito. Maaaring i-claim ang ibang mga pangalan at brand bilang pag-aari ng iba.

Paunawa sa Pag-optimize

Ang mga compiler ng Intel ay maaaring o hindi maaaring mag-optimize sa parehong antas para sa mga hindi-Intel microprocessor para sa mga optimization na hindi natatangi sa Intel microprocessors. Kasama sa mga pag-optimize na ito ang mga set ng pagtuturo ng SSE2, SSE3, at SSSE3 at iba pang mga pag-optimize. Hindi ginagarantiya ng Intel ang availability, functionality, o pagiging epektibo ng anumang pag-optimize sa mga microprocessor na hindi ginawa ng Intel. Ang mga pag-optimize na umaasa sa microprocessor sa produktong ito ay inilaan para gamitin sa mga microprocessor ng Intel. Ang ilang partikular na pag-optimize na hindi partikular sa Intel microarchitecture ay nakalaan para sa mga microprocessor ng Intel. Mangyaring sumangguni sa naaangkop na Mga Gabay sa Gumagamit at Sanggunian ng produkto para sa higit pang impormasyon tungkol sa mga partikular na set ng pagtuturo na sakop ng notice na ito.
Notice revision #20110804

Walang lisensya (ipahayag o ipinahiwatig, sa pamamagitan ng estoppel o kung hindi man) sa anumang mga karapatan sa intelektwal na ari-arian ang ibinibigay ng dokumentong ito.

Ang mga produktong inilarawan ay maaaring naglalaman ng mga depekto sa disenyo o mga error na kilala bilang errata na maaaring maging sanhi ng paglihis ng produkto mula sa mga nai-publish na mga detalye. Available ang kasalukuyang characterized errata kapag hiniling.

Tinatanggihan ng Intel ang lahat ng ipinahayag at ipinahiwatig na mga warranty, kabilang ang walang limitasyon, ang mga ipinahiwatig na warranty ng kakayahang maikalakal, pagiging angkop para sa isang partikular na layunin, at hindi paglabag, pati na rin ang anumang warranty na nagmumula sa kurso ng pagganap, kurso ng pakikitungo, o paggamit sa kalakalan.

 

Mga Dokumento / Mga Mapagkukunan

Toolkit ng Mga Developer ng Intel oneAPI DL Framework para sa Linux [pdf] Manwal ng May-ari
oneAPI DL Framework Developers Toolkit para sa Linux, Framework Developers Toolkit para sa Linux, Developers Toolkit para sa Linux, Toolkit para sa Linux

Mga sanggunian

Mag-iwan ng komento

Ang iyong email address ay hindi maipa-publish. Ang mga kinakailangang field ay minarkahan *