Esta es la aplicación de Windows llamada AWS Neuron cuya última versión se puede descargar como NeuronSDKRelease-March28,2023.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada AWS Neuron con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie cualquier emulador en línea de OS OnWorks desde este sitio web, pero mejor emulador en línea de Windows.
- 5. Desde el sistema operativo OnWorks Windows que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación e instálala.
- 7. Descargue Wine desde los repositorios de software de sus distribuciones de Linux. Una vez instalada, puede hacer doble clic en la aplicación para ejecutarla con Wine. También puedes probar PlayOnLinux, una elegante interfaz sobre Wine que te ayudará a instalar programas y juegos populares de Windows.
Wine es una forma de ejecutar software de Windows en Linux, pero no requiere Windows. Wine es una capa de compatibilidad de Windows de código abierto que puede ejecutar programas de Windows directamente en cualquier escritorio de Linux. Esencialmente, Wine está tratando de volver a implementar una cantidad suficiente de Windows desde cero para poder ejecutar todas esas aplicaciones de Windows sin necesidad de Windows.
SCREENSHOTS
Ad
AWS neurona
DESCRIPCIÓN
AWS Neuron es un kit de desarrollo de software (SDK) para ejecutar la inferencia de aprendizaje automático mediante chips de AWS Inferentia. Consiste en un compilador, tiempo de ejecución y herramientas de creación de perfiles que permiten a los desarrolladores ejecutar inferencias de alto rendimiento y baja latencia utilizando instancias Amazon EC2 Inf1 basadas en AWS Inferentia. Los desarrolladores de Neuron pueden entrenar fácilmente sus modelos de aprendizaje automático en cualquier marco popular, como TensorFlow, PyTorch y MXNet, y ejecutarlos de manera óptima en instancias Amazon EC2 Inf1. Puede continuar usando los mismos marcos de ML que usa hoy y migrar su software a instancias Inf1 con cambios mínimos de código y sin vinculación con soluciones específicas del proveedor. Neuron está preintegrado en marcos de aprendizaje automático populares como TensorFlow, MXNet y Pytorch para proporcionar un flujo de trabajo continuo de capacitación a inferencia. Incluye un compilador, un controlador de tiempo de ejecución, así como utilidades de depuración y generación de perfiles con un complemento de TensorBoard para visualización.
Caracteristicas
- La forma más rápida y sencilla de comenzar con las instancias Inf1 es Amazon SageMaker
- El SDK de AWS Neuron está integrado con marcos populares como TensorFlow, PyTorch y MXNet
- Está preinstalado en Amazon Deep Learning AMI y Amazon Deep Learning Containers
- El SDK de AWS Neuron permite una programación eficiente y acceso en tiempo de ejecución a los chips de Inferentia
- Dado que Neuron está integrado con marcos comunes de aprendizaje automático, los desarrolladores implementan sus modelos existentes en instancias EC2 Inf1 con cambios mínimos en el código.
- Brinda a los clientes la capacidad de compilar y ejecutar inferencias utilizando modelos previamente entrenados
Lenguaje de programación
Python
Categorías
Esta es una aplicación que también se puede obtener de https://sourceforge.net/projects/aws-neuron.mirror/. Ha sido alojado en OnWorks para poder ejecutarse online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.