Esta es la aplicación de Linux llamada ncnn cuya última versión se puede descargar como androidiosmacoslinuxwindowswebassemblyYuBianYiKu2023081639721eesourcecode.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada ncnn con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
nnn
DESCRIPCIÓN
ncnn es un marco de computación de inferencia de redes neuronales de alto rendimiento diseñado específicamente para plataformas móviles. Trae inteligencia artificial al alcance de su mano sin dependencias de terceros, y acelera más rápido que todos los demás marcos de código abierto conocidos para cpu de teléfonos móviles. ncnn permite a los desarrolladores implementar fácilmente modelos de algoritmos de aprendizaje profundo en la plataforma móvil y crear aplicaciones inteligentes. Es multiplataforma y admite las redes CNN más utilizadas, incluidas Classical CNN (VGG AlexNet GoogleNet Inception), Detección facial (MTCNN RetinaFace), Segmentación (FCN PSPNet UNet YOLACT) y más. ncnn se utiliza actualmente en varias aplicaciones de Tencent, a saber: QQ, Qzone, WeChat y Pitu.
Caracteristicas
- Admite las redes CNN más utilizadas
- Admite redes neuronales convolucionales
- Soporta múltiples entradas y estructura de múltiples ramas
- Absolutamente sin dependencias de terceros
- Medición
- Montaje ARM NEON
- Huella de memoria reducida
- Admite la aceleración de computación paralela de múltiples núcleos
- Admite aceleración de GPU
- Tamaño de biblioteca pequeño
- Diseño de modelo extensible
- Admite el modelo de red de carga de referencia de copia cero de memoria directa
- Puede registrarse con implementación de capa personalizada y extendida
Lenguaje de programación
C + +
Categorías
Esta es una aplicación que también se puede obtener de https://sourceforge.net/projects/ncnn.mirror/. Se ha alojado en OnWorks para poder ejecutarlo online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.