Đây là ứng dụng Windows có tên Triton Inference Server có bản phát hành mới nhất có thể được tải xuống dưới dạng Release2.38.0corresp Tương ứngtoNGCcontainer23.09.zip. Nó có thể được chạy trực tuyến trong nhà cung cấp dịch vụ lưu trữ miễn phí OnWorks cho máy trạm.
Tải xuống và chạy trực tuyến ứng dụng có tên Triton Inference Server with OnWorks này miễn phí.
Làm theo các hướng dẫn sau để chạy ứng dụng này:
- 1. Đã tải ứng dụng này xuống PC của bạn.
- 2. Nhập vào trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 3. Tải lên ứng dụng này trong trình quản lý tệp như vậy.
- 4. Khởi động bất kỳ trình giả lập trực tuyến OS OnWorks nào từ trang web này, nhưng trình giả lập trực tuyến Windows tốt hơn.
- 5. Từ Hệ điều hành Windows OnWorks bạn vừa khởi động, hãy truy cập trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 6. Tải xuống ứng dụng và cài đặt nó.
- 7. Tải xuống Wine từ kho phần mềm phân phối Linux của bạn. Sau khi cài đặt, bạn có thể nhấp đúp vào ứng dụng để chạy chúng với Wine. Bạn cũng có thể thử PlayOnLinux, một giao diện đẹp mắt trên Wine sẽ giúp bạn cài đặt các chương trình và trò chơi phổ biến của Windows.
Wine là một cách để chạy phần mềm Windows trên Linux, nhưng không cần Windows. Wine là một lớp tương thích Windows mã nguồn mở có thể chạy các chương trình Windows trực tiếp trên bất kỳ máy tính để bàn Linux nào. Về cơ bản, Wine đang cố gắng triển khai lại đủ Windows từ đầu để nó có thể chạy tất cả các ứng dụng Windows đó mà không thực sự cần đến Windows.
MÀN HÌNH
Ad
Máy chủ suy luận Triton
MÔ TẢ
Triton Inference Server là một phần mềm phục vụ suy luận mã nguồn mở giúp hợp lý hóa việc truyền thông qua AI. Triton cho phép các nhóm triển khai bất kỳ mô hình AI nào từ nhiều khuôn khổ học sâu và học máy, bao gồm TensorRT, TensorFlow, PyTorch, ONNX, OpenVINO, Python, RAPIDS FIL, v.v. Triton hỗ trợ suy luận trên đám mây, trung tâm dữ liệu, cạnh và các thiết bị nhúng trên GPU NVIDIA, x86 và CPU ARM hoặc AWS Inferentia. Triton mang lại hiệu suất được tối ưu hóa cho nhiều loại truy vấn, bao gồm thời gian thực, hàng loạt, nhóm và phát trực tuyến âm thanh / video. Cung cấp API phụ trợ cho phép thêm các phụ trợ tùy chỉnh và các hoạt động xử lý trước / sau. Lập mô hình đường ống bằng cách sử dụng Lập trình lắp ráp hoặc Kịch bản logic nghiệp vụ (BLS). Các giao thức suy luận HTTP / REST và GRPC dựa trên giao thức KServe do cộng đồng phát triển. AC API và Java API cho phép Triton liên kết trực tiếp vào ứng dụng của bạn cho các trường hợp sử dụng cạnh và trong quá trình khác.
Tính năng
- Hỗ trợ nhiều khung học sâu
- Hỗ trợ nhiều khuôn khổ học máy
- Thực hiện mô hình đồng thời
- Lô động
- Phân chia trình tự và quản lý nhà nước ngầm định đối với các mô hình trạng thái
- Cung cấp API phụ trợ cho phép thêm các phụ trợ tùy chỉnh và các hoạt động xử lý trước / sau
Ngôn ngữ lập trình
Python
Danh Mục
Đây là một ứng dụng cũng có thể được tìm nạp từ https://sourceforge.net/projects/triton-inference-server.mirror/. Nó đã được lưu trữ trong OnWorks để có thể chạy trực tuyến một cách dễ dàng nhất từ một trong những Hệ thống hoạt động miễn phí của chúng tôi.