英语法语西班牙语

OnWorks 网站图标

适用于 Linux 的 TensorRT 下载

免费下载 TensorRT Linux 应用程序以在 Ubuntu 在线、Fedora 在线或 Debian 在线中在线运行

这是名为 TensorRT 的 Linux 应用程序,其最新版本可以下载为 23.08.zip。 它可以在工作站的免费托管服务提供商 OnWorks 中在线运行。

免费下载并在线运行这个名为 TensorRT with OnWorks 的应用程序。

请按照以下说明运行此应用程序:

- 1. 在您的 PC 中下载此应用程序。

- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。

- 3. 在这样的文件管理器中上传这个应用程序。

- 4. 从此网站启动OnWorks Linux online 或Windows online emulator 或MACOS online emulator。

- 5. 从您刚刚启动的 OnWorks Linux 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。

- 6. 下载应用程序,安装并运行。

SCREENSHOTS

Ad


张量RT


商品描述

NVIDIA® TensorRT™ 是一款用于高性能深度学习推理的 SDK。 它包括一个深度学习推理优化器和运行时,可为深度学习推理应用程序提供低延迟和高吞吐量。 在推理过程中,基于 TensorRT 的应用程序的执行速度比纯 CPU 平台快 40 倍。 借助 TensorRT,您可以优化在所有主要框架中训练的神经网络模型,以高精度校准较低精度,并部署到超大规模数据中心、嵌入式或汽车产品平台。 TensorRT 基于 CUDA®(NVIDIA 的并行编程模型)构建,使您能够利用 CUDA-X™ 中的库、开发工具和技术优化推理,用于人工智能、自主机器、高性能计算和图形。 借助新的 NVIDIA Ampere 架构 GPU,TensorRT 还利用稀疏张量核心提供额外的性能提升。



功能

  • TensorRT 使用 Quantization Aware Training 和 Post Training Quantization 提供 INT8
  • 视频流、语音识别、推荐等深度学习推理应用的生产部署。
  • 降低精度推理显着降低了应用程序延迟
  • 使用 TensorRT,开发人员可以专注于创建新的 AI 驱动的应用程序,而不是为推理部署进行性能调整
  • 通过量化模型在保持准确性的同时最大化 FP16 或 INT8 的吞吐量
  • 通过融合内核中的节点来优化 GPU 内存和带宽的使用


程式语言

C + +中


分类

库、机器学习、神经网络库、深度学习框架、运行时

这是一个也可以从 https://sourceforge.net/projects/tensorrt.mirror/ 获取的应用程序。 它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最简单的方式在线运行。


免费服务器和工作站

下载 Windows 和 Linux 应用程序

Linux 命令

Ad