InglésFrancésEspañol

icono de página de OnWorks

Descarga de DeepSpeed ​​MII para Linux

Descargue gratis la aplicación DeepSpeed ​​MII Linux para ejecutarla en línea en Ubuntu en línea, Fedora en línea o Debian en línea

Esta es la aplicación de Linux llamada DeepSpeed ​​MII cuya última versión se puede descargar como DeepSpeedMIIv0.0.8.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.

Descargue y ejecute en línea esta aplicación llamada DeepSpeed ​​MII con OnWorks de forma gratuita.

Siga estas instrucciones para ejecutar esta aplicación:

- 1. Descargue esta aplicación en su PC.

- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.

- 3. Cargue esta aplicación en dicho administrador de archivos.

- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.

- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.

- 6. Descarga la aplicación, instálala y ejecútala.

SCREENSHOTS

Ad


MII de velocidad profunda


DESCRIPCIÓN

MII hace posible la inferencia de baja latencia y alto rendimiento, impulsada por DeepSpeed. La comunidad de código abierto de Deep Learning (DL) ha experimentado un enorme crecimiento en los últimos meses. Modelos de generación de texto increíblemente potentes, como el Bloom 176B, o modelos de generación de imágenes, como Stable Diffusion, ahora están disponibles para cualquier persona con acceso a un puñado o incluso a una sola GPU a través de plataformas como Hugging Face. Si bien el código abierto ha democratizado el acceso a las capacidades de la IA, su aplicación todavía está restringida por dos factores críticos: la latencia de inferencia y el costo. DeepSpeed-MII es una nueva biblioteca de Python de código abierto de DeepSpeed, cuyo objetivo es hacer que la inferencia de modelos potentes de baja latencia y bajo costo no solo sea factible sino también fácilmente accesible. MII ofrece acceso a la implementación altamente optimizada de miles de modelos DL ampliamente utilizados. Los modelos compatibles con MII logran una latencia y un costo significativamente menores en comparación con su implementación original.



Caracteristicas

  • MII ofrece acceso a una implementación altamente optimizada de miles de modelos DL ampliamente utilizados
  • Los modelos compatibles con MII logran una latencia y un costo significativamente menores en comparación con su implementación original
  • MII aprovecha un amplio conjunto de optimizaciones de DeepSpeed-Inference, como Deepfusion para transformadores.
  • Rendimiento de última generación
  • MII admite la implementación de bajo costo de estos modelos tanto localmente como en Azure a través de AML con solo unas pocas líneas de código.
  • Corte de tensor automatizado para inferencia multi-GPU, cuantificación sobre la marcha con ZeroQuant


Lenguaje de programación

Python


Categorías

Marcos de aprendizaje profundo

Esta es una aplicación que también se puede obtener desde https://sourceforge.net/projects/deepspeed-mii.mirror/. Ha sido alojado en OnWorks para poder ejecutarlo online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.


Servidores y estaciones de trabajo gratuitos

Descargar aplicaciones de Windows y Linux

  • 1
    rpmsunidos
    rpmsunidos
    ¡Únase a nosotros en Gitter!
    https://gitter.im/unitedrpms-people/Lobby
    Habilite el repositorio URPMS en su
    sistema -
    https://github.com/UnitedRPMs/unitedrpms.github.io/bl...
    Descargar unitedrpms
  • 2
    Impulsar las bibliotecas de C ++
    Impulsar las bibliotecas de C ++
    Boost ofrece portátiles gratuitos
    Bibliotecas de C++ revisadas por pares. Él
    El énfasis está en las bibliotecas portátiles que
    funciona bien con la biblioteca estándar de C++.
    Ver http://www.bo...
    Descargar bibliotecas Boost C++
  • 3
    VirtualGL
    VirtualGL
    VirtualGL redirige los comandos 3D de un
    Aplicación Unix / Linux OpenGL en un
    GPU del lado del servidor y convierte la
    renderiza imágenes en 3D en una secuencia de video
    con la cual ...
    Descargar VirtualGL
  • 4
    libusb
    libusb
    Biblioteca para habilitar el espacio de usuario
    programas de aplicación para comunicarse
    Dispositivos USB. Público: Desarrolladores, Fin
    Usuarios/Escritorio. lenguaje de programacion: c
    Categorías ...
    Descargar libusb
  • 5
    TRAGO
    TRAGO
    SWIG es una herramienta de desarrollo de software
    que conecta programas escritos en C y
    C ++ con una variedad de alto nivel
    lenguajes de programación. SWIG se utiliza con
    diferente...
    Descargar SWIG
  • 6
    WooCommerce Nextjs reaccionar tema
    WooCommerce Nextjs reaccionar tema
    Tema React WooCommerce, creado con
    Siguiente JS, Webpack, Babel, Node y
    Express, usando GraphQL y Apollo
    Cliente. Tienda WooCommerce en React(
    contiene: Productos...
    Descargar el tema WooCommerce Nextjs React
  • Más "

Comandos de Linux

Ad