Tiếng AnhTiếng PhápTiếng Tây Ban Nha

Biểu tượng yêu thích OnWorks

TensorRT Backend Để tải xuống ONNX cho Windows

Tải xuống miễn phí TensorRT Backend Dành cho ONNX Ứng dụng Windows để chạy win trực tuyến Wine trong Ubuntu trực tuyến, Fedora trực tuyến hoặc Debian trực tuyến

Đây là ứng dụng Windows có tên TensorRT Backend For ONNX có bản phát hành mới nhất có thể tải xuống dưới dạng ONNX-TensorRT8.6EARelease.zip. Nó có thể được chạy trực tuyến trong nhà cung cấp dịch vụ lưu trữ miễn phí OnWorks cho máy trạm.

Tải xuống và chạy trực tuyến ứng dụng này có tên TensorRT Backend For ONNX with OnWorks miễn phí.

Làm theo các hướng dẫn sau để chạy ứng dụng này:

- 1. Đã tải ứng dụng này xuống PC của bạn.

- 2. Nhập vào trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.

- 3. Tải lên ứng dụng này trong trình quản lý tệp như vậy.

- 4. Khởi động bất kỳ trình giả lập trực tuyến OS OnWorks nào từ trang web này, nhưng trình giả lập trực tuyến Windows tốt hơn.

- 5. Từ Hệ điều hành Windows OnWorks bạn vừa khởi động, hãy truy cập trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.

- 6. Tải xuống ứng dụng và cài đặt nó.

- 7. Tải xuống Wine từ kho phần mềm phân phối Linux của bạn. Sau khi cài đặt, bạn có thể nhấp đúp vào ứng dụng để chạy chúng với Wine. Bạn cũng có thể thử PlayOnLinux, một giao diện đẹp mắt trên Wine sẽ giúp bạn cài đặt các chương trình và trò chơi phổ biến của Windows.

Wine là một cách để chạy phần mềm Windows trên Linux, nhưng không cần Windows. Wine là một lớp tương thích Windows mã nguồn mở có thể chạy các chương trình Windows trực tiếp trên bất kỳ máy tính để bàn Linux nào. Về cơ bản, Wine đang cố gắng triển khai lại đủ Windows từ đầu để nó có thể chạy tất cả các ứng dụng Windows đó mà không thực sự cần đến Windows.

MÀN HÌNH

Ad


TensorRT phụ trợ cho ONNX


MÔ TẢ

Phân tích các mô hình ONNX để thực thi với TensorRT. Phát triển trên nhánh chính dành cho phiên bản mới nhất của TensorRT 8.4.1.5 với kích thước đầy đủ và hỗ trợ hình dạng động. Đối với các phiên bản trước của TensorRT, hãy tham khảo các nhánh tương ứng của chúng. Xây dựng các đối tượng INetwork ở chế độ kích thước đầy đủ với hỗ trợ hình dạng động yêu cầu gọi API C++ và Python. Các toán tử ONNX được hỗ trợ hiện tại được tìm thấy trong ma trận hỗ trợ toán tử. Để xây dựng trong docker, chúng tôi khuyên bạn nên sử dụng và thiết lập bộ chứa docker theo hướng dẫn trong kho lưu trữ chính (Kho lưu trữ TensorRT). Lưu ý rằng dự án này phụ thuộc vào CUDA. Theo mặc định, bản dựng sẽ tìm trong /usr/local/cuda để cài đặt bộ công cụ CUDA. Nếu đường dẫn CUDA của bạn khác, hãy ghi đè lên đường dẫn mặc định. Các mô hình ONNX có thể được chuyển đổi thành các công cụ TensorRT được tuần tự hóa bằng cách sử dụng tệp thực thi onnx2trt.



Tính năng

  • Các mô hình ONNX có thể được chuyển đổi thành văn bản mà con người có thể đọc được
  • Các mô hình ONNX có thể được chuyển đổi thành các công cụ TensorRT nối tiếp
  • Các mô hình ONNX có thể được tối ưu hóa bởi các thư viện tối ưu hóa của ONNX
  • Mô-đun Python
  • TensorRT 8.4.1.5 hỗ trợ bản phát hành ONNX 1.8.0
  • Phần phụ trợ TensorRT cho ONNX có thể được sử dụng trong Python


Ngôn ngữ lập trình

C + +


Danh Mục

Machine Learning

Đây là một ứng dụng cũng có thể được tìm nạp từ https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/. Nó đã được lưu trữ trong OnWorks để có thể chạy trực tuyến theo cách dễ dàng nhất từ ​​một trong các Hệ điều hành miễn phí của chúng tôi.


Máy chủ & Máy trạm miễn phí

Tải xuống ứng dụng Windows & Linux

Lệnh Linux

Ad