Đây là ứng dụng Linux có tên TensorFlow Serving có bản phát hành mới nhất có thể được tải xuống dưới dạng 2.13.1.zip. Nó có thể được chạy trực tuyến trong nhà cung cấp dịch vụ lưu trữ miễn phí OnWorks cho máy trạm.
Tải xuống và chạy trực tuyến ứng dụng có tên TensorFlow Phục vụ với OnWorks này miễn phí.
Làm theo các hướng dẫn sau để chạy ứng dụng này:
- 1. Đã tải ứng dụng này xuống PC của bạn.
- 2. Nhập vào trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 3. Tải lên ứng dụng này trong trình quản lý tệp như vậy.
- 4. Khởi động trình giả lập trực tuyến OnWorks Linux hoặc trình giả lập trực tuyến Windows hoặc trình mô phỏng trực tuyến MACOS từ trang web này.
- 5. Từ Hệ điều hành OnWorks Linux mà bạn vừa khởi động, hãy truy cập trình quản lý tệp của chúng tôi https://www.onworks.net/myfiles.php?username=XXXXX với tên người dùng mà bạn muốn.
- 6. Tải xuống ứng dụng, cài đặt và chạy nó.
MÀN HÌNH
Ad
TensorFlow phục vụ
MÔ TẢ
TensorFlow Serving là một hệ thống phục vụ linh hoạt, hiệu suất cao cho các mô hình máy học, được thiết kế cho môi trường sản xuất. Nó đề cập đến khía cạnh suy luận của học máy, lấy các mô hình sau khi đào tạo và quản lý vòng đời của chúng, cung cấp cho khách hàng quyền truy cập theo phiên bản thông qua bảng tra cứu được tính tham chiếu, hiệu suất cao. TensorFlow Serving cung cấp tích hợp sẵn có với các mô hình TensorFlow, nhưng có thể dễ dàng mở rộng để phục vụ các loại mô hình và dữ liệu khác. Cách dễ nhất và dễ hiểu nhất để sử dụng TensorFlow Serving là sử dụng hình ảnh Docker. Chúng tôi thực sự khuyên bạn nên sử dụng tuyến đường này trừ khi bạn có nhu cầu cụ thể không được giải quyết bằng cách chạy trong một container. Để phục vụ mô hình Tensorflow, chỉ cần xuất SavedModel từ chương trình Tensorflow của bạn. SavedModel là một định dạng tuần tự hóa kín ngôn ngữ, có thể khôi phục, cho phép các hệ thống và công cụ cấp cao hơn sản xuất, sử dụng và chuyển đổi các mô hình TensorFlow.
Tính năng
- Có thể phân phối nhiều mô hình hoặc nhiều phiên bản của cùng một mô hình đồng thời
- Hiển thị cả gRPC cũng như các điểm cuối suy luận HTTP
- Cho phép triển khai các phiên bản mô hình mới mà không cần thay đổi bất kỳ mã máy khách nào
- Hỗ trợ canarying các phiên bản mới và các mô hình thử nghiệm thử nghiệm A / B
- Thêm độ trễ tối thiểu vào thời gian suy luận do triển khai hiệu quả, chi phí thấp
- Có bộ lập lịch nhóm các yêu cầu suy luận riêng lẻ thành các lô để thực thi chung trên GPU, với các điều khiển độ trễ có thể định cấu hình
Ngôn ngữ lập trình
C + +
Danh Mục
Đây là một ứng dụng cũng có thể được tìm nạp từ https://sourceforge.net/projects/tensorflow-serving.mirror/. Nó đã được lưu trữ trên OnWorks để có thể chạy trực tuyến một cách dễ dàng nhất từ một trong những Hệ thống hoạt động miễn phí của chúng tôi.