这是名为 Triton Inference Server 的 Windows 应用程序,其最新版本可以下载为 Release2.38.0,对应于 NGCcontainer23.09.zip。 它可以在工作站的免费托管服务提供商 OnWorks 中在线运行。
免费下载并在线运行这个名为 Triton Inference Server with OnWorks 的应用程序。
请按照以下说明运行此应用程序:
- 1. 在您的 PC 中下载此应用程序。
- 2. 在我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX 中输入您想要的用户名。
- 3. 在这样的文件管理器中上传这个应用程序。
- 4. 从本网站启动任何 OS OnWorks 在线模拟器,但更好的 Windows 在线模拟器。
- 5. 从您刚刚启动的 OnWorks Windows 操作系统,使用您想要的用户名转到我们的文件管理器 https://www.onworks.net/myfiles.php?username=XXXXX。
- 6. 下载应用程序并安装。
- 7. 从您的 Linux 发行版软件存储库下载 Wine。 安装后,您可以双击该应用程序以使用 Wine 运行它们。 您还可以尝试 PlayOnLinux,这是 Wine 上的一个花哨界面,可帮助您安装流行的 Windows 程序和游戏。
Wine 是一种在 Linux 上运行 Windows 软件的方法,但不需要 Windows。 Wine 是一个开源的 Windows 兼容层,可以直接在任何 Linux 桌面上运行 Windows 程序。 本质上,Wine 试图从头开始重新实现足够多的 Windows,以便它可以运行所有这些 Windows 应用程序,而实际上不需要 Windows。
SCREENSHOTS
Ad
Triton 推理服务器
商品描述
Triton Inference Server 是一款开源推理服务软件,可简化 AI 推理。 Triton 使团队能够部署来自多个深度学习和机器学习框架的任何 AI 模型,包括 TensorRT、TensorFlow、PyTorch、ONNX、OpenVINO、Python、RAPIDS FIL 等。 Triton 支持在 NVIDIA GPU、x86 和 ARM CPU 或 AWS Inferentia 上跨云、数据中心、边缘和嵌入式设备进行推理。 Triton 为许多查询类型提供优化的性能,包括实时、批处理、集成和音频/视频流。 提供允许添加自定义后端和预处理/后处理操作的后端 API。 使用集成或业务逻辑脚本 (BLS) 对管道进行建模。 基于社区开发的 KServe 协议的 HTTP/REST 和 GRPC 推理协议。 AC API 和 Java API 允许 Triton 直接链接到您的应用程序,用于边缘和其他进程内用例。
項目特色
- 支持多种深度学习框架
- 支持多种机器学习框架
- 并发模型执行
- 动态批处理
- 有状态模型的序列批处理和隐式状态管理
- 提供允许添加自定义后端和前/后处理操作的后端 API
程式语言
Python
分类
这是一个也可以从 https://sourceforge.net/projects/triton-inference-server.mirror/ 获取的应用程序。 它已托管在 OnWorks 中,以便通过我们的免费操作系统之一以最简单的方式在线运行。