Esta es la aplicación de Linux llamada DeepSpeed MII cuya última versión se puede descargar como DeepSpeedMIIv0.0.8.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada DeepSpeed MII con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
MII de velocidad profunda
DESCRIPCIÓN
MII hace posible la inferencia de baja latencia y alto rendimiento, impulsada por DeepSpeed. La comunidad de código abierto de Deep Learning (DL) ha experimentado un enorme crecimiento en los últimos meses. Modelos de generación de texto increíblemente potentes, como el Bloom 176B, o modelos de generación de imágenes, como Stable Diffusion, ahora están disponibles para cualquier persona con acceso a un puñado o incluso a una sola GPU a través de plataformas como Hugging Face. Si bien el código abierto ha democratizado el acceso a las capacidades de la IA, su aplicación todavía está restringida por dos factores críticos: la latencia de inferencia y el costo. DeepSpeed-MII es una nueva biblioteca de Python de código abierto de DeepSpeed, cuyo objetivo es hacer que la inferencia de modelos potentes de baja latencia y bajo costo no solo sea factible sino también fácilmente accesible. MII ofrece acceso a la implementación altamente optimizada de miles de modelos DL ampliamente utilizados. Los modelos compatibles con MII logran una latencia y un costo significativamente menores en comparación con su implementación original.
Caracteristicas
- MII ofrece acceso a una implementación altamente optimizada de miles de modelos DL ampliamente utilizados
- Los modelos compatibles con MII logran una latencia y un costo significativamente menores en comparación con su implementación original
- MII aprovecha un amplio conjunto de optimizaciones de DeepSpeed-Inference, como Deepfusion para transformadores.
- Rendimiento de última generación
- MII admite la implementación de bajo costo de estos modelos tanto localmente como en Azure a través de AML con solo unas pocas líneas de código.
- Corte de tensor automatizado para inferencia multi-GPU, cuantificación sobre la marcha con ZeroQuant
Lenguaje de programación
Python
Categorías
Esta es una aplicación que también se puede obtener desde https://sourceforge.net/projects/deepspeed-mii.mirror/. Ha sido alojado en OnWorks para poder ejecutarlo online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.