Este é o aplicativo Linux denominado llm, cuja versão mais recente pode ser baixada como llm-cli-x86_64-pc-windows-msvc.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado llm com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.
- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo, instale-o e execute-o.
SCREENSHOTS
Ad
Ilm
DESCRIÇÃO
llm é um ecossistema de bibliotecas Rust para trabalhar com grandes modelos de linguagem - é construído sobre a biblioteca GGML rápida e eficiente para aprendizado de máquina. O principal ponto de entrada para desenvolvedores é o llm crate, que envolve o llm-base e os engradados do modelo suportado. A documentação da versão lançada está disponível em Docs.rs. Para usuários finais, existe um aplicativo CLI, llm-cli, que fornece uma interface conveniente para interagir com modelos suportados. A geração de texto pode ser feita de forma única com base em um prompt ou de forma interativa, por meio de REPL ou modos de chat. A CLI também pode ser usada para serializar (imprimir) modelos decodificados, quantizar arquivos GGML ou calcular a perplexidade de um modelo. Ele pode ser baixado da versão mais recente do GitHub ou instalado em crates.io.
Funcionalidades
- llm é desenvolvido com a biblioteca tensor ggml e tem como objetivo trazer a robustez e a facilidade de uso do Rust para o mundo dos grandes modelos de linguagem
- Este projeto depende do Rust v1.65.0 ou superior e de um conjunto de ferramentas C moderno
- A biblioteca llm foi projetada para aproveitar aceleradores de hardware como cuda e metal para desempenho otimizado
- Para permitir que o llm aproveite esses aceleradores, algumas etapas preliminares de configuração são necessárias
- A maneira mais fácil de começar a usar o llm-cli é baixar um executável pré-construído de uma versão lançada do llm
- Por padrão, o llm é compilado com suporte para buscar remotamente o tokenizer do hub de modelo do Hugging Face
Linguagem de Programação
Ferrugem
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/llm.mirror/. Foi hospedado em OnWorks para poder ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.