baixar llm para Linux

Este é o aplicativo Linux denominado llm, cuja versão mais recente pode ser baixada como llm-cli-x86_64-pc-windows-msvc.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.

 
 

Baixe e execute online este aplicativo chamado llm com OnWorks gratuitamente.

Siga estas instruções para executar este aplicativo:

- 1. Baixe este aplicativo em seu PC.

- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.

- 3. Carregue este aplicativo em tal gerenciador de arquivos.

- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.

- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.

- 6. Baixe o aplicativo, instale-o e execute-o.

CAPTURAS DE TELA:


Ilm


DESCRIÇÃO:

llm é um ecossistema de bibliotecas Rust para trabalhar com grandes modelos de linguagem - é construído sobre a biblioteca GGML rápida e eficiente para aprendizado de máquina. O principal ponto de entrada para desenvolvedores é o llm crate, que envolve o llm-base e os engradados do modelo suportado. A documentação da versão lançada está disponível em Docs.rs. Para usuários finais, existe um aplicativo CLI, llm-cli, que fornece uma interface conveniente para interagir com modelos suportados. A geração de texto pode ser feita de forma única com base em um prompt ou de forma interativa, por meio de REPL ou modos de chat. A CLI também pode ser usada para serializar (imprimir) modelos decodificados, quantizar arquivos GGML ou calcular a perplexidade de um modelo. Ele pode ser baixado da versão mais recente do GitHub ou instalado em crates.io.



Funcionalidades

  • llm é desenvolvido com a biblioteca tensor ggml e tem como objetivo trazer a robustez e a facilidade de uso do Rust para o mundo dos grandes modelos de linguagem
  • Este projeto depende do Rust v1.65.0 ou superior e de um conjunto de ferramentas C moderno
  • A biblioteca llm foi projetada para aproveitar aceleradores de hardware como cuda e metal para desempenho otimizado
  • Para permitir que o llm aproveite esses aceleradores, algumas etapas preliminares de configuração são necessárias
  • A maneira mais fácil de começar a usar o llm-cli é baixar um executável pré-construído de uma versão lançada do llm
  • Por padrão, o llm é compilado com suporte para buscar remotamente o tokenizer do hub de modelo do Hugging Face


Linguagem de Programação

Ferrugem


Categorias

Modelos de Grandes Linguagens (LLM)

Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/llm.mirror/. Foi hospedado em OnWorks para poder ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.



Programas online mais recentes para Linux e Windows


Categorias para baixar software e programas para Windows e Linux