Esta es la aplicación de Linux llamada AIMET cuya última versión se puede descargar como 1.28.0.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada AIMET con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
AIMET
DESCRIPCIÓN
El Centro de innovación de Qualcomm (QuIC) está a la vanguardia de la habilitación de la inferencia de bajo consumo en el borde a través de su investigación pionera de eficiencia de modelos. QuIC tiene la misión de ayudar a migrar el ecosistema hacia la inferencia de punto fijo. Con este objetivo, QuIC presenta AI Model Efficiency Toolkit (AIMET), una biblioteca que proporciona técnicas avanzadas de cuantificación y compresión para modelos de redes neuronales entrenados. AIMET permite que las redes neuronales se ejecuten de manera más eficiente en aceleradores de hardware de IA de punto fijo. La inferencia cuantificada es significativamente más rápida que la inferencia de punto flotante. Por ejemplo, los modelos que hemos ejecutado en el DSP Qualcomm® Hexagon™ en lugar de la CPU Qualcomm® Kryo™ han dado como resultado una aceleración de 5x a 15x. Además, un modelo de 8 bits también tiene una huella de memoria 4 veces menor en comparación con un modelo de 32 bits. Sin embargo, a menudo, cuando se cuantifica un modelo de aprendizaje automático (por ejemplo, de punto flotante de 32 bits a un valor de punto fijo de 8 bits), se sacrifica la precisión del modelo.
Caracteristicas
- Iguale los tensores de peso para reducir la variación de amplitud entre canales
- Técnica de descomposición tensorial para dividir una capa grande en dos más pequeñas
- Corrige el cambio en las salidas de capa introducidas debido a la cuantificación
- Elimina los canales de entrada redundantes de una capa y reconstruye los pesos de las capas
- Use la simulación de cuantización para entrenar aún más el modelo para mejorar la precisión
- Selecciona automáticamente cuánto comprimir cada capa en el modelo
Lenguaje de programación
Python
Categorías
Esta es una aplicación que también se puede obtener desde https://sourceforge.net/projects/aimet.mirror/. Ha sido alojado en OnWorks para poder ejecutarse online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.