Dies ist die Linux-App namens TensorRT Backend For ONNX, deren neueste Version als ONNX-TensorRT8.6EARelease.zip heruntergeladen werden kann. Es kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App mit dem Namen TensorRT Backend For ONNX with OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
SCREENSHOTS
Ad
TensorRT-Backend für ONNX
BESCHREIBUNG
Analysiert ONNX-Modelle für die Ausführung mit TensorRT. Die Entwicklung im Hauptzweig erfolgt für die neueste Version von TensorRT 8.4.1.5 mit vollständigen Dimensionen und dynamischer Formunterstützung. Informationen zu früheren Versionen von TensorRT finden Sie in den jeweiligen Zweigen. Das Erstellen von INetwork-Objekten im Volldimensionsmodus mit dynamischer Formunterstützung erfordert das Aufrufen der C++- und Python-API. Aktuell unterstützte ONNX-Operatoren finden Sie in der Operator-Support-Matrix. Für das Bauen innerhalb von Docker empfehlen wir die Verwendung und Einrichtung der Docker-Container wie im Hauptverzeichnis (TensorRT-Repository) beschrieben. Beachten Sie, dass dieses Projekt eine Abhängigkeit von CUDA hat. Standardmäßig sucht der Build in /usr/local/cuda nach der Installation des CUDA-Toolkits. Wenn Ihr CUDA-Pfad anders ist, überschreiben Sie den Standardpfad. ONNX-Modelle können mithilfe der ausführbaren Datei onnx2trt in serialisierte TensorRT-Engines konvertiert werden.
Eigenschaften
- ONNX-Modelle können in menschenlesbaren Text konvertiert werden
- ONNX-Modelle können in serialisierte TensorRT-Engines konvertiert werden
- ONNX-Modelle können durch die Optimierungsbibliotheken von ONNX optimiert werden
- Python-Module
- TensorRT 8.4.1.5 unterstützt ONNX-Version 1.8.0
- Das TensorRT-Backend für ONNX kann in Python verwendet werden
Programmiersprache
C + +
Kategorien
Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, damit es auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme ausgeführt werden kann.