Este é o aplicativo do Windows denominado llama2-webui, cuja versão mais recente pode ser baixada como v0.1.14Release.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado llama2-webui com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.
- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo e instale-o.
- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.
Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.
SCREENSHOTS
Ad
lhama2-webui
DESCRIÇÃO
Executando o Llama 2 com interface web gradio em GPU ou CPU de qualquer lugar (Linux/Windows/Mac).
Recursos
- Compatível com todos os modelos Llama 2 (7B, 13B, 70B, GPTQ, GGML) com modo de 8 e 4 bits
- Use llama2-wrapper como back-end llama2 local para agentes/aplicativos generativos; exemplo de colaboração
- Execute API compatível com OpenAI em modelos Llama2
- Modelos de suporte: Llama-2-7b/13b/70b, todos Llama-2-GPTQ, todos Llama-2-GGML
- Backends de modelo de suporte: transformadores, bitsandbytes(inferência de 8 bits), AutoGPTQ(inferência de 4 bits), llama.cpp
- Demonstrações: Execute o Llama2 no MacBook Air; Execute o Llama2 na GPU Colab T4 gratuita
Linguagem de Programação
Python
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/llama2-webui.mirror/. Foi hospedado em OnWorks para poder ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.