EnglezăFrancezăSpaniolă

Favicon OnWorks

TensorRT Backend Pentru descărcare ONNX pentru Windows

Descărcare gratuită TensorRT Backend pentru aplicația Windows ONNX pentru a rula online Wine în Ubuntu online, Fedora online sau Debian online

Aceasta este aplicația Windows numită TensorRT Backend For ONNX a cărei ultimă versiune poate fi descărcată ca ONNX-TensorRT8.6EARelease.zip. Poate fi rulat online în furnizorul de găzduire gratuit OnWorks pentru stații de lucru.

Descărcați și rulați online această aplicație numită TensorRT Backend For ONNX cu OnWorks gratuit.

Urmați aceste instrucțiuni pentru a rula această aplicație:

- 1. Ați descărcat această aplicație pe computer.

- 2. Introduceți în managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator pe care îl doriți.

- 3. Încărcați această aplicație într-un astfel de manager de fișiere.

- 4. Porniți orice emulator online OS OnWorks de pe acest site, dar mai bun emulator online Windows.

- 5. Din sistemul de operare Windows OnWorks pe care tocmai l-ați pornit, accesați managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator dorit.

- 6. Descărcați aplicația și instalați-o.

- 7. Descărcați Wine din depozitele de software ale distribuțiilor Linux. Odată instalat, puteți apoi să faceți dublu clic pe aplicație pentru a le rula cu Wine. De asemenea, puteți încerca PlayOnLinux, o interfață elegantă peste Wine, care vă va ajuta să instalați programe și jocuri populare Windows.

Wine este o modalitate de a rula software-ul Windows pe Linux, dar fără a fi necesar Windows. Wine este un strat de compatibilitate Windows open-source care poate rula programe Windows direct pe orice desktop Linux. În esență, Wine încearcă să reimplementeze suficient Windows de la zero, astfel încât să poată rula toate acele aplicații Windows fără a avea nevoie efectiv de Windows.

SCREENSHOTS

Ad


Backend TensorRT pentru ONNX


DESCRIERE

Analizează modelele ONNX pentru execuție cu TensorRT. Dezvoltarea pe ramura principală este pentru cea mai recentă versiune a TensorRT 8.4.1.5 cu dimensiuni complete și suport pentru forme dinamice. Pentru versiunile anterioare ale TensorRT, consultați ramurile lor respective. Construirea obiectelor INetwork în modul dimensiuni complete cu suport pentru forme dinamice necesită apelarea API-ului C++ și Python. Operatorii ONNX actuali acceptați se găsesc în matricea de suport pentru operatori. Pentru construirea în docker, vă recomandăm să utilizați și să configurați containerele docker conform instrucțiunilor din principal (depozitul TensorRT). Rețineți că acest proiect are o dependență de CUDA. În mod implicit, build-ul va căuta în /usr/local/cuda instalarea setului de instrumente CUDA. Dacă calea CUDA este diferită, suprascrieți calea implicită. Modelele ONNX pot fi convertite în motoare TensorRT serializate folosind executabilul onnx2trt.



DESCRIERE

  • Modelele ONNX pot fi convertite în text care poate fi citit de om
  • Modelele ONNX pot fi convertite în motoare TensorRT serializate
  • Modelele ONNX pot fi optimizate de bibliotecile de optimizare ale ONNX
  • Module Python
  • TensorRT 8.4.1.5 acceptă versiunea ONNX 1.8.0
  • Backend-ul TensorRT pentru ONNX poate fi folosit în Python


Limbaj de programare

C ++


Categorii

Invatare mecanica

Aceasta este o aplicație care poate fi preluată și de la https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/. A fost găzduit în OnWorks pentru a fi rulat online într-un mod cât mai ușor de pe unul dintre sistemele noastre operative gratuite.


Servere și stații de lucru gratuite

Descărcați aplicații Windows și Linux

Comenzi Linux

Ad