Este é o aplicativo do Windows denominado ChatLLM Web, cuja versão mais recente pode ser baixada como v1.0.0.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado ChatLLM Web com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.
- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo e instale-o.
- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.
Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.
SCREENSHOTS
Ad
ChatLLM Web
DESCRIÇÃO
Converse com LLM como Vicuna totalmente no seu navegador com WebGPU, de forma segura, privada e sem servidor. Desenvolvido por web-llm. Para usar este aplicativo, você precisa de um navegador compatível com WebGPU, como Chrome 113 ou Chrome Canary. Versões do Chrome ≤ 112 não são suportadas. Você precisará de uma GPU com cerca de 6.4 GB de memória. Se sua GPU tiver menos memória, o aplicativo ainda será executado, mas o tempo de resposta será mais lento. Na primeira vez que usar o aplicativo, você precisará baixar o modelo. Para o modelo Vicuna-7b que estamos usando atualmente, o tamanho do download é de cerca de 4 GB. Após o download inicial, o modelo será carregado do cache do navegador para uma utilização mais rápida.
Funcionalidades
- Tudo roda dentro do navegador sem suporte de servidor e é acelerado com WebGPU
- O modelo é executado em um web trabalhador, garantindo que não bloqueie a interface do usuário e proporcionando uma experiência perfeita
- Fácil de implantar gratuitamente com um clique no Vercel em menos de 1 minuto, então você obtém seu próprio ChatLLM Web
- O cache do modelo é suportado, então você só precisa baixar o modelo uma vez
- Bate-papo com várias conversas, com todos os dados armazenados localmente no navegador para privacidade
- Suporte a markdown e resposta de streaming: matemática, destaque de código, etc.
Linguagem de Programação
JavaScript
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/chatllm-web.mirror/. Foi hospedado em OnWorks para poder ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.