EnglishFrenchGermanItalianPortugueseRussianSpanish

Pag-download ng Torch-TensorRT para sa Linux

OnWorks favicon

Free download Torch-TensorRT Linux app to run online in Ubuntu online, Fedora online or Debian online

Ito ang Linux app na pinangalanang Torch-TensorRT na ang pinakabagong release ay maaaring ma-download bilang Torch-TensorRTv1.3.0.zip. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.

 
 

I-download at patakbuhin online ang app na ito na pinangalanang Torch-TensorRT na may OnWorks nang libre.

Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:

- 1. Na-download ang application na ito sa iyong PC.

- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.

- 3. I-upload ang application na ito sa naturang filemanager.

- 4. Simulan ang OnWorks Linux online o Windows online emulator o MACOS online emulator mula sa website na ito.

- 5. Mula sa OnWorks Linux OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.

- 6. I-download ang application, i-install ito at patakbuhin ito.

MGA SCREENSHOT:


Tanglaw-TensorRT


DESCRIPTION:

Ang Torch-TensorRT ay isang compiler para sa PyTorch/TorchScript, na nagta-target ng mga NVIDIA GPU sa pamamagitan ng TensorRT Deep Learning Optimizer at Runtime ng NVIDIA. Hindi tulad ng Just-In-Time (JIT) compiler ng PyTorch, ang Torch-TensorRT ay isang Ahead-of-Time (AOT) compiler, ibig sabihin bago mo i-deploy ang iyong TorchScript code, dumaan ka sa isang tahasang hakbang sa pag-compile upang i-convert ang isang karaniwang TorchScript program sa isang module na nagta-target sa isang TensorRT engine. Ang Torch-TensorRT ay gumagana bilang isang extension ng PyTorch at nag-compile ng mga module na nagsasama sa JIT runtime nang walang putol. Pagkatapos ng compilation gamit ang na-optimize na graph ay dapat na pakiramdam na walang iba kaysa sa pagpapatakbo ng isang TorchScript module. Mayroon ka ring access sa hanay ng mga pagsasaayos ng TensorRT sa oras ng pag-compile, upang matukoy mo ang katumpakan ng pagpapatakbo (FP32/FP16/INT8) at iba pang mga setting para sa iyong module.



Mga tampok

  • Bumuo ng isang docker container para sa Torch-TensorRT
  • NVIDIA NGC Container
  • Nangangailangan ng Libtorch 1.12.0 (built with CUDA 11.3)
  • Bumuo gamit ang cuDNN at TensorRT tarball distributions
  • Subukan gamit ang Python backend
  • Mayroon kang access sa hanay ng mga pagsasaayos ng TensorRT sa oras ng pag-compile


Wika ng Programming

C + +


Kategorya

Pag-aaral ng Machine

Ito ay isang application na maaari ding makuha mula sa https://sourceforge.net/projects/torch-tensorrt.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.



Pinakabagong Linux at Windows online na mga programa


Mga kategorya upang i-download ang Software at Mga Programa para sa Windows at Linux