EnglischFranzösischSpanisch

OnWorks-Favicon

TensorRT Backend für ONNX-Download für Linux

Kostenloser Download der TensorRT-Backend-For-ONNX-Linux-App zur Online-Ausführung in Ubuntu online, Fedora online oder Debian online

Dies ist die Linux-App namens TensorRT Backend For ONNX, deren neueste Version als ONNX-TensorRT8.6EARelease.zip heruntergeladen werden kann. Es kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.

Laden Sie diese App mit dem Namen TensorRT Backend For ONNX with OnWorks kostenlos herunter und führen Sie sie online aus.

Befolgen Sie diese Anweisungen, um diese App auszuführen:

- 1. Diese Anwendung auf Ihren PC heruntergeladen.

- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.

- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.

- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.

- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.

- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.

SCREENSHOTS

Ad


TensorRT-Backend für ONNX


BESCHREIBUNG

Analysiert ONNX-Modelle für die Ausführung mit TensorRT. Die Entwicklung im Hauptzweig erfolgt für die neueste Version von TensorRT 8.4.1.5 mit vollständigen Dimensionen und dynamischer Formunterstützung. Informationen zu früheren Versionen von TensorRT finden Sie in den jeweiligen Zweigen. Das Erstellen von INetwork-Objekten im Volldimensionsmodus mit dynamischer Formunterstützung erfordert das Aufrufen der C++- und Python-API. Aktuell unterstützte ONNX-Operatoren finden Sie in der Operator-Support-Matrix. Für das Bauen innerhalb von Docker empfehlen wir die Verwendung und Einrichtung der Docker-Container wie im Hauptverzeichnis (TensorRT-Repository) beschrieben. Beachten Sie, dass dieses Projekt eine Abhängigkeit von CUDA hat. Standardmäßig sucht der Build in /usr/local/cuda nach der Installation des CUDA-Toolkits. Wenn Ihr CUDA-Pfad anders ist, überschreiben Sie den Standardpfad. ONNX-Modelle können mithilfe der ausführbaren Datei onnx2trt in serialisierte TensorRT-Engines konvertiert werden.



Eigenschaften

  • ONNX-Modelle können in menschenlesbaren Text konvertiert werden
  • ONNX-Modelle können in serialisierte TensorRT-Engines konvertiert werden
  • ONNX-Modelle können durch die Optimierungsbibliotheken von ONNX optimiert werden
  • Python-Module
  • TensorRT 8.4.1.5 unterstützt ONNX-Version 1.8.0
  • Das TensorRT-Backend für ONNX kann in Python verwendet werden


Programmiersprache

C + +


Kategorien

Maschinelles lernen

Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, damit es auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme ausgeführt werden kann.


Kostenlose Server & Workstations

Laden Sie Windows- und Linux-Apps herunter

Linux-Befehle

Ad