TensorRT-Download für Linux

Dies ist die Linux-App namens TensorRT, deren neueste Version als 23.08.zip heruntergeladen werden kann. Es kann online im kostenlosen Hosting-Anbieter OnWorks für Workstations betrieben werden.

 
 

Laden Sie diese App namens TensorRT mit OnWorks kostenlos herunter und führen Sie sie online aus.

Befolgen Sie diese Anweisungen, um diese App auszuführen:

- 1. Diese Anwendung auf Ihren PC heruntergeladen.

- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.

- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.

- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.

- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.

- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.

SCREENSHOTS:


TensorRT


BESCHREIBUNG:

NVIDIA® TensorRT™ ist ein SDK für hochleistungsfähige Deep-Learning-Inferenz. Es umfasst einen Deep-Learning-Inferenzoptimierer und eine Laufzeit, die eine geringe Latenz und einen hohen Durchsatz für Deep-Learning-Inferenzanwendungen bietet. TensorRT-basierte Anwendungen sind während der Inferenz bis zu 40-mal schneller als reine CPU-Plattformen. Mit TensorRT können Sie neuronale Netzwerkmodelle, die in allen wichtigen Frameworks trainiert wurden, optimieren, mit hoher Genauigkeit für niedrigere Präzision kalibrieren und in Hyperscale-Rechenzentren, eingebetteten oder automobilen Produktplattformen bereitstellen. TensorRT basiert auf CUDA®, dem parallelen Programmiermodell von NVIDIA, und ermöglicht Ihnen die Optimierung der Inferenz mithilfe von Bibliotheken, Entwicklungstools und Technologien in CUDA-X™ für künstliche Intelligenz, autonome Maschinen, Hochleistungsrechnen und Grafik. Mit den neuen NVIDIA Ampere Architecture GPUs nutzt TensorRT auch spärliche Tensor-Cores, die eine zusätzliche Leistungssteigerung bieten.



Eigenschaften

  • TensorRT bietet INT8 mit quantisierungsbewusstem Training und Quantisierung nach dem Training
  • Produktionsbereitstellungen von Deep-Learning-Inferenzanwendungen wie Videostreaming, Spracherkennung, Empfehlung usw.
  • Reduzierte Präzisionsinferenz reduziert die Anwendungslatenz erheblich
  • Mit TensorRT können sich Entwickler auf die Entwicklung neuartiger KI-gestützter Anwendungen konzentrieren, anstatt die Leistung für die Inferenzbereitstellung zu optimieren
  • Maximiert den Durchsatz mit FP16 oder INT8 durch Quantisierung von Modellen unter Beibehaltung der Genauigkeit
  • Optimiert die Nutzung von GPU-Speicher und Bandbreite durch Fusion von Knoten in einem Kernel


Programmiersprache

C + +


Kategorien

Bibliotheken, maschinelles Lernen, neuronale Netzwerkbibliotheken, Deep-Learning-Frameworks, Laufzeiten

Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/tensorrt.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, um auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme ausgeführt zu werden.



Neueste Linux- und Windows-Online-Programme


Kategorien zum Herunterladen von Software und Programmen für Windows und Linux