Este é o aplicativo Linux denominado MegEngine, cuja versão mais recente pode ser baixada como MegEnginev1.13.2sourcecode.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado MegEngine com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.
- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo, instale-o e execute-o.
SCREENSHOTS
Ad
Meg Engine
DESCRIÇÃO
O MegEngine é uma estrutura de aprendizagem profunda rápida, escalável e fácil de usar com 3 recursos principais. Você pode representar pré-processamento de quantização/forma dinâmica/imagem e até mesmo derivação em um modelo. Após o treinamento, basta colocar tudo em seu modelo e fazer a inferência em qualquer plataforma à vontade. Os problemas de velocidade e precisão não o incomodarão mais devido ao mesmo núcleo interno. No treinamento, o uso de memória da GPU pode cair para um terço ao custo de apenas uma linha adicional, o que habilita o algoritmo DTR. Obtenha o menor uso de memória ao inferir um modelo, aproveitando nosso exclusivo planejador de memória pushdown. NOTA: MegEngine agora suporta a instalação do Python em plataformas Linux-64bit/Windows-64bit/MacOS(CPU-Only)-10.14+/Android 7+(CPU-Only) com Python de 3.5 a 3.8. No Windows 10, você pode instalar a distribuição do Linux por meio do Windows Subsystem for Linux (WSL) ou instalar a distribuição do Windows diretamente. Muitas outras plataformas são suportadas para inferência.
Recursos
- Inferência rápida e de alta precisão em x86/Arm/CUDA/RoCM
- Suporte Linux/Windows/iOS/Android/TEE
- Núcleo unificado para treinamento e inferência
- Requisitos de hardware mais baixos ajudados por algoritmos
- Inferência eficiente em todas as plataformas
- Economize mais memória e otimize a velocidade aproveitando o uso avançado
Linguagem de Programação
C + +
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/megengine.mirror/. Ele foi hospedado em OnWorks para ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.