这是名为 TensorRT 的 Windows 应用程序,其最新版本可以作为 TensorRTOSSv9.1.0sourcecode.zip 下载。 它可以在免费的工作站托管提供商 OnWorks 中在线运行。
免费下载并在线运行这个名为 TensorRT with OnWorks 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从本网站启动任何 OS OnWorks 在线模拟器,但更好的 Windows 在线模拟器。
- 5. 从您刚刚启动的 OnWorks Windows 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序并安装。
- 7. 从您的 Linux 发行版软件存储库下载 Wine。 安装后,您可以双击该应用程序以使用 Wine 运行它们。 您还可以尝试 PlayOnLinux,这是 Wine 上的一个花哨界面,可帮助您安装流行的 Windows 程序和游戏。
Wine 是一种在 Linux 上运行 Windows 软件的方法,但不需要 Windows。 Wine 是一个开源的 Windows 兼容层,可以直接在任何 Linux 桌面上运行 Windows 程序。 本质上,Wine 试图从头开始重新实现足够多的 Windows,以便它可以运行所有这些 Windows 应用程序,而实际上不需要 Windows。
SCREENSHOTS
Ad
张量RT
商品描述
NVIDIA® TensorRT™ 是一款用于高性能深度学习推理的 SDK。 它包括一个深度学习推理优化器和运行时,可为深度学习推理应用程序提供低延迟和高吞吐量。 在推理过程中,基于 TensorRT 的应用程序的执行速度比纯 CPU 平台快 40 倍。 借助 TensorRT,您可以优化在所有主要框架中训练的神经网络模型,以高精度校准较低精度,并部署到超大规模数据中心、嵌入式或汽车产品平台。 TensorRT 基于 CUDA®(NVIDIA 的并行编程模型)构建,使您能够利用 CUDA-X™ 中的库、开发工具和技术优化推理,用于人工智能、自主机器、高性能计算和图形。 借助新的 NVIDIA Ampere 架构 GPU,TensorRT 还利用稀疏张量核心提供额外的性能提升。
项目特色
- TensorRT 使用 Quantization Aware Training 和 Post Training Quantization 提供 INT8
- 视频流、语音识别、推荐等深度学习推理应用的生产部署。
- 降低精度推理显着降低了应用程序延迟
- 使用 TensorRT,开发人员可以专注于创建新的 AI 驱动的应用程序,而不是为推理部署进行性能调整
- 通过量化模型在保持准确性的同时最大化 FP16 或 INT8 的吞吐量
- 通过融合内核中的节点来优化 GPU 内存和带宽的使用
程式语言
C + +中
分类
这是一个也可以从 https://sourceforge.net/projects/tensorrt.mirror/ 获取的应用程序。 它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最简单的方式在线运行。