Esta es la aplicación de Windows llamada ChatLLM Web cuya última versión se puede descargar como v1.0.0.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada ChatLLM Web con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie cualquier emulador en línea de OS OnWorks desde este sitio web, pero mejor emulador en línea de Windows.
- 5. Desde el sistema operativo OnWorks Windows que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación e instálala.
- 7. Descargue Wine desde los repositorios de software de sus distribuciones de Linux. Una vez instalada, puede hacer doble clic en la aplicación para ejecutarla con Wine. También puedes probar PlayOnLinux, una elegante interfaz sobre Wine que te ayudará a instalar programas y juegos populares de Windows.
Wine es una forma de ejecutar software de Windows en Linux, pero no requiere Windows. Wine es una capa de compatibilidad de Windows de código abierto que puede ejecutar programas de Windows directamente en cualquier escritorio de Linux. Esencialmente, Wine está tratando de volver a implementar una cantidad suficiente de Windows desde cero para poder ejecutar todas esas aplicaciones de Windows sin necesidad de Windows.
SCREENSHOTS
Ad
ChatLLM Web
DESCRIPCIÓN
Chatea con LLM como Vicuña totalmente en tu navegador con WebGPU, de forma segura, privada y sin servidor. Desarrollado por web-llm. Para utilizar esta aplicación, necesita un navegador que admita WebGPU, como Chrome 113 o Chrome Canary. Las versiones de Chrome ≤ 112 no son compatibles. Necesitará una GPU con aproximadamente 6.4 GB de memoria. Si su GPU tiene menos memoria, la aplicación seguirá ejecutándose, pero el tiempo de respuesta será más lento. La primera vez que utilices la aplicación, deberás descargar el modelo. Para el modelo Vicuña-7b que utilizamos actualmente, el tamaño de descarga es de aproximadamente 4 GB. Después de la descarga inicial, el modelo se cargará desde la memoria caché del navegador para un uso más rápido.
Caracteristicas
- Todo se ejecuta dentro del navegador sin soporte de servidor y se acelera con WebGPU
- El modelo se ejecuta en un trabajador web, lo que garantiza que no bloquee la interfaz de usuario y proporcione una experiencia perfecta.
- Fácil de implementar de forma gratuita con un clic en Vercel en menos de 1 minuto y luego obtendrá su propia Web ChatLLM
- Se admite el almacenamiento en caché del modelo, por lo que solo necesita descargar el modelo una vez
- Chat de múltiples conversaciones, con todos los datos almacenados localmente en el navegador para mayor privacidad
- Soporte de respuesta de Markdown y streaming: matemáticas, resaltado de código, etc.
Lenguaje de programación
JavaScript
Categorías
Esta es una aplicación que también se puede obtener de https://sourceforge.net/projects/chatllm-web.mirror/. Ha sido alojado en OnWorks para poder ejecutarlo online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.