Este é o aplicativo do Windows denominado TensorRT, cuja versão mais recente pode ser baixada como TensorRTOSSv9.1.0sourcecode.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado TensorRT com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.
- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo e instale-o.
- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.
Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.
SCREENSHOTS
Ad
TensorRT
DESCRIÇÃO
NVIDIA® TensorRT ™ é um SDK para inferência de aprendizado profundo de alto desempenho. Inclui um otimizador de inferência de aprendizado profundo e tempo de execução que oferece baixa latência e alto rendimento para aplicativos de inferência de aprendizado profundo. Os aplicativos baseados em TensorRT têm um desempenho até 40 vezes mais rápido do que as plataformas apenas de CPU durante a inferência. Com o TensorRT, você pode otimizar modelos de rede neural treinados em todas as principais estruturas, calibrar para obter menor precisão com alta precisão e implantar em centros de dados em hiperescala, plataformas de produtos incorporados ou automotivos. O TensorRT é baseado em CUDA®, o modelo de programação paralela da NVIDIA, e permite que você otimize bibliotecas de aproveitamento de inferência, ferramentas de desenvolvimento e tecnologias em CUDA-X ™ para inteligência artificial, máquinas autônomas, computação de alto desempenho e gráficos. Com as novas GPUs NVIDIA Ampere Architecture, o TensorRT também aproveita núcleos tensores esparsos, proporcionando um aumento de desempenho adicional.
Recursos
- TensorRT fornece INT8 usando Quantization Aware Training e Post Training Quantization
- Implementações de produção de aplicativos de inferência de aprendizado profundo, como streaming de vídeo, reconhecimento de fala, recomendação, etc.
- A inferência de precisão reduzida reduz significativamente a latência do aplicativo
- Com o TensorRT, os desenvolvedores podem se concentrar na criação de novos aplicativos baseados em IA, em vez de ajustar o desempenho para implantação de inferência
- Maximiza o rendimento com FP16 ou INT8 quantizando modelos enquanto preserva a precisão
- Otimiza o uso de memória GPU e largura de banda fundindo nós em um kernel
Linguagem de Programação
C + +
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/tensorrt.mirror/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.