Téléchargement de TensorFlow Serving pour Linux

Il s'agit de l'application Linux nommée TensorFlow Serving dont la dernière version peut être téléchargée en tant que 2.13.1.zip. Il peut être exécuté en ligne sur le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.

 
 

Téléchargez et exécutez en ligne cette application nommée TensorFlow Serving with OnWorks gratuitement.

Suivez ces instructions pour exécuter cette application :

- 1. Téléchargé cette application sur votre PC.

- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.

- 3. Téléchargez cette application dans ce gestionnaire de fichiers.

- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.

- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.

- 6. Téléchargez l'application, installez-la et exécutez-la.

CAPTURES D'ÉCRAN:


Servir TensorFlow


DESCRIPTION:

TensorFlow Serving est un système de service flexible et hautes performances pour les modèles d'apprentissage automatique, conçu pour les environnements de production. Il traite de l'aspect inférence de l'apprentissage automatique, en prenant des modèles après la formation et en gérant leur durée de vie, en fournissant aux clients un accès versionné via une table de recherche haute performance et comptée en références. TensorFlow Serving offre une intégration prête à l'emploi avec les modèles TensorFlow, mais peut être facilement étendu pour servir d'autres types de modèles et de données. Le moyen le plus simple et le plus direct d'utiliser TensorFlow Serving consiste à utiliser les images Docker. Nous recommandons fortement cet itinéraire, sauf si vous avez des besoins spécifiques qui ne sont pas satisfaits par l'exécution dans un conteneur. Pour servir un modèle Tensorflow, exportez simplement un SavedModel depuis votre programme Tensorflow. SavedModel est un format de sérialisation hermétique, récupérable et indépendant du langage qui permet aux systèmes et outils de niveau supérieur de produire, consommer et transformer des modèles TensorFlow.



Fonctionnalités

  • Peut servir plusieurs modèles ou plusieurs versions du même modèle simultanément
  • Expose à la fois gRPC et les points de terminaison d'inférence HTTP
  • Permet le déploiement de nouvelles versions de modèle sans modifier aucun code client
  • Prend en charge les nouvelles versions Canary et les modèles expérimentaux de test A/B
  • Ajoute une latence minimale au temps d'inférence en raison d'une mise en œuvre efficace et peu coûteuse
  • Comprend un planificateur qui regroupe les demandes d'inférence individuelles en lots pour une exécution conjointe sur GPU, avec des contrôles de latence configurables


Langage de programmation

C + +


Catégories

Machine Learning

Il s'agit d'une application qui peut également être récupérée à partir de https://sourceforge.net/projects/tensorflow-serving.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.



Derniers programmes en ligne Linux et Windows


Catégories à télécharger Logiciels et programmes pour Windows et Linux