Este é o aplicativo do Windows chamado TorchServe cuja versão mais recente pode ser baixada como TorchServev0.7.0ReleaseNotes.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado TorchServe with OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.
- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo e instale-o.
- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.
Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.
SCREENSHOTS
Ad
TorchServe
DESCRIÇÃO
O TorchServe é uma ferramenta de alto desempenho, flexível e fácil de usar para servir o modo ansioso do PyTorch e modelos torschripted. Gerenciamento multimodelo com o operador otimizado para alocação de modelo. Suporte REST e gRPC para inferência em lote. Exporte seu modelo para inferência otimizada. Torchscript pronto para uso, ORT, IPEX, TensorRT, FasterTransformer. Guia de desempenho: suporte integrado para otimizar, comparar e traçar o perfil do desempenho do PyTorch e do TorchServe. Manipuladores expressivos: uma arquitetura de manipulador expressivo que torna trivial o suporte à inferência para seu caso de uso com muitos suportes prontos para uso. Suporte pronto para uso para métricas no nível do sistema com exportações do Prometheus, métricas personalizadas e suporte ao criador de perfil PyTorch.
Funcionalidades
- Suporte REST e gRPC para inferência em lote
- Implante DAGs complexos com vários modelos interdependentes
- Maneira padrão de servir modelos PyTorch
- Exporte seu modelo para inferência otimizada
- Guia de Performance
- API de métricas
Linguagem de Programação
Java
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/torchserve.mirror/. Ele foi hospedado em OnWorks para ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.