Dies ist die Linux-App namens TensorRT, deren neueste Version als 23.08.zip heruntergeladen werden kann. Es kann online im kostenlosen Hosting-Anbieter OnWorks für Workstations betrieben werden.
Laden Sie diese App namens TensorRT mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
SCREENSHOTS:
TensorRT
BESCHREIBUNG:
NVIDIA® TensorRT™ ist ein SDK für hochleistungsfähige Deep-Learning-Inferenz. Es umfasst einen Deep-Learning-Inferenzoptimierer und eine Laufzeit, die eine geringe Latenz und einen hohen Durchsatz für Deep-Learning-Inferenzanwendungen bietet. TensorRT-basierte Anwendungen sind während der Inferenz bis zu 40-mal schneller als reine CPU-Plattformen. Mit TensorRT können Sie neuronale Netzwerkmodelle, die in allen wichtigen Frameworks trainiert wurden, optimieren, mit hoher Genauigkeit für niedrigere Präzision kalibrieren und in Hyperscale-Rechenzentren, eingebetteten oder automobilen Produktplattformen bereitstellen. TensorRT basiert auf CUDA®, dem parallelen Programmiermodell von NVIDIA, und ermöglicht Ihnen die Optimierung der Inferenz mithilfe von Bibliotheken, Entwicklungstools und Technologien in CUDA-X™ für künstliche Intelligenz, autonome Maschinen, Hochleistungsrechnen und Grafik. Mit den neuen NVIDIA Ampere Architecture GPUs nutzt TensorRT auch spärliche Tensor-Cores, die eine zusätzliche Leistungssteigerung bieten.
Eigenschaften
- TensorRT bietet INT8 mit quantisierungsbewusstem Training und Quantisierung nach dem Training
- Produktionsbereitstellungen von Deep-Learning-Inferenzanwendungen wie Videostreaming, Spracherkennung, Empfehlung usw.
- Reduzierte Präzisionsinferenz reduziert die Anwendungslatenz erheblich
- Mit TensorRT können sich Entwickler auf die Entwicklung neuartiger KI-gestützter Anwendungen konzentrieren, anstatt die Leistung für die Inferenzbereitstellung zu optimieren
- Maximiert den Durchsatz mit FP16 oder INT8 durch Quantisierung von Modellen unter Beibehaltung der Genauigkeit
- Optimiert die Nutzung von GPU-Speicher und Bandbreite durch Fusion von Knoten in einem Kernel
Programmiersprache
C + +
Kategorien
Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/tensorrt.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, um auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme ausgeführt zu werden.