Esta es la aplicación de Linux llamada llama2-webui cuya última versión se puede descargar como v0.1.14Release.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada llama2-webui con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
llama2-webui
DESCRIPCIÓN
Ejecutar Llama 2 con la interfaz de usuario web de gradio en GPU o CPU desde cualquier lugar (Linux/Windows/Mac).
Caracteristicas
- Compatible con todos los modelos Llama 2 (7B, 13B, 70B, GPTQ, GGML) con modo de 8 y 4 bits
- Utilice llama2-wrapper como su backend local de llama2 para agentes/aplicaciones generativas; ejemplo de colaboración
- Ejecute API compatible con OpenAI en modelos Llama2
- Modelos compatibles: Llama-2-7b/13b/70b, todos Llama-2-GPTQ, todos Llama-2-GGML
- Backends de modelos compatibles: transformadores, bitsandbytes (inferencia de 8 bits), AutoGPTQ (inferencia de 4 bits), llama.cpp
- Demostraciones: ejecute Llama2 en MacBook Air; Ejecute Llama2 en una GPU Colab T4 gratuita
Lenguaje de programación
Python
Categorías
Esta es una aplicación que también se puede obtener de https://sourceforge.net/projects/llama2-webui.mirror/. Ha sido alojado en OnWorks para poder ejecutarlo online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.