Це програма для Windows під назвою TensorFlow Serving, останню версію якої можна завантажити як 2.13.1.zip. Його можна запустити в режимі онлайн за допомогою безкоштовного хостинг-провайдера OnWorks для робочих станцій.
Завантажте та запустіть онлайн цю програму під назвою TensorFlow Serving з OnWorks безкоштовно.
Дотримуйтесь цих інструкцій, щоб запустити цю програму:
- 1. Завантажив цю програму на свій ПК.
- 2. Введіть у наш файловий менеджер https://www.onworks.net/myfiles.php?username=XXXXX із потрібним ім'ям користувача.
- 3. Завантажте цю програму в такий файловий менеджер.
- 4. Запустіть будь-який онлайн емулятор ОС OnWorks з цього веб-сайту, але кращий онлайн-емулятор Windows.
- 5. З ОС OnWorks Windows, яку ви щойно запустили, перейдіть до нашого файлового менеджера https://www.onworks.net/myfiles.php?username=XXXXX з потрібним іменем користувача.
- 6. Завантажте програму та встановіть її.
- 7. Завантажте Wine зі сховищ програмного забезпечення дистрибутивів Linux. Після встановлення ви можете двічі клацнути програму, щоб запустити їх за допомогою Wine. Ви також можете спробувати PlayOnLinux, модний інтерфейс замість Wine, який допоможе вам встановити популярні програми та ігри Windows.
Wine — це спосіб запуску програмного забезпечення Windows на Linux, але без використання Windows. Wine — це рівень сумісності Windows з відкритим вихідним кодом, який може запускати програми Windows безпосередньо на будь-якому робочому столі Linux. По суті, Wine намагається повторно реалізувати достатньо Windows з нуля, щоб він міг запускати всі ці програми Windows, насправді не потребуючи Windows.
СКРЕНИ:
Обслуговування TensorFlow
ОПИС:
TensorFlow Serving — це гнучка, високопродуктивна система обслуговування моделей машинного навчання, розроблена для виробничих середовищ. Він стосується аспекту висновку машинного навчання, бере моделі після навчання та керує їхнім життям, надаючи клієнтам версійний доступ за допомогою високопродуктивної таблиці пошуку з підрахунком посилань. TensorFlow Serving забезпечує готову інтеграцію з моделями TensorFlow, але може бути легко розширена для обслуговування інших типів моделей і даних. Найпростіший і найпростіший спосіб використання TensorFlow Serving – це зображення Docker. Ми настійно рекомендуємо цей маршрут, якщо у вас немає конкретних потреб, які не задовольняються за допомогою контейнера. Щоб обслуговувати модель Tensorflow, просто експортуйте SavedModel зі своєї програми Tensorflow. SavedModel — це нейтральний до мови, відновлюваний, герметичний формат серіалізації, який дає змогу системам та інструментам вищого рівня створювати, використовувати та перетворювати моделі TensorFlow.
Функції
- Може обслуговувати кілька моделей або кілька версій однієї моделі одночасно
- Надає кінцеві точки як gRPC, так і HTTP
- Дозволяє розгортати нові версії моделі без зміни коду клієнта
- Підтримує нові версії Canarying і експериментальні моделі для тестування A/B
- Додає мінімальну затримку до часу висновку завдяки ефективній реалізації з низькими витратами
- Має планувальник, який групує окремі запити висновку в пакети для спільного виконання на графічному процесорі, з настроюваними елементами керування затримкою
Мова програмування
C + +
Категорії
Це додаток, який також можна отримати з https://sourceforge.net/projects/tensorflow-serving.mirror/. Його розміщено в OnWorks, щоб його можна було запустити в Інтернеті найпростішим способом з однієї з наших безкоштовних операційних систем.