Esta es la aplicación de Windows llamada llm cuya última versión se puede descargar como llm-cli-x86_64-pc-windows-msvc.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada llm con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie cualquier emulador en línea de OS OnWorks desde este sitio web, pero mejor emulador en línea de Windows.
- 5. Desde el sistema operativo OnWorks Windows que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación e instálala.
- 7. Descargue Wine desde los repositorios de software de sus distribuciones de Linux. Una vez instalada, puede hacer doble clic en la aplicación para ejecutarla con Wine. También puedes probar PlayOnLinux, una elegante interfaz sobre Wine que te ayudará a instalar programas y juegos populares de Windows.
Wine es una forma de ejecutar software de Windows en Linux, pero no requiere Windows. Wine es una capa de compatibilidad de Windows de código abierto que puede ejecutar programas de Windows directamente en cualquier escritorio de Linux. Esencialmente, Wine está tratando de volver a implementar una cantidad suficiente de Windows desde cero para poder ejecutar todas esas aplicaciones de Windows sin necesidad de Windows.
SCREENSHOTS
Ad
llm
DESCRIPCIÓN
llm es un ecosistema de bibliotecas Rust para trabajar con modelos de lenguaje grandes: está construido sobre la rápida y eficiente biblioteca GGML para el aprendizaje automático. El principal punto de entrada para los desarrolladores es la caja llm, que envuelve la base llm y las cajas de modelos compatibles. La documentación de la versión publicada está disponible en Docs.rs. Para los usuarios finales, existe una aplicación CLI, llm-cli, que proporciona una interfaz conveniente para interactuar con los modelos compatibles. La generación de texto se puede realizar de forma única en función de un mensaje o de forma interactiva, a través de REPL o modos de chat. La CLI también se puede utilizar para serializar (imprimir) modelos decodificados, cuantificar archivos GGML o calcular la perplejidad de un modelo. Se puede descargar desde la última versión de GitHub o instalándolo desde crates.io.
Caracteristicas
- llm funciona con la biblioteca de tensores ggml y tiene como objetivo llevar la solidez y la facilidad de uso de Rust al mundo de los grandes modelos de lenguaje.
- Este proyecto depende de Rust v1.65.0 o superior y de una cadena de herramientas C moderna
- La biblioteca llm está diseñada para aprovechar aceleradores de hardware como cuda y metal para un rendimiento optimizado.
- Para permitir que llm aproveche estos aceleradores, son necesarios algunos pasos de configuración preliminares.
- La forma más sencilla de comenzar con llm-cli es descargar un ejecutable prediseñado de una versión publicada de llm.
- De forma predeterminada, llm se compila con soporte para obtener de forma remota el tokenizador desde el centro de modelos de Hugging Face.
Lenguaje de programación
Herrumbre
Categorías
Esta es una aplicación que también se puede obtener de https://sourceforge.net/projects/llm.mirror/. Ha sido alojado en OnWorks para poder ejecutarlo online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.