Este é o aplicativo do Windows denominado Web LLM, cuja versão mais recente pode ser baixada como v0.2.0.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado Web LLM com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.
- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo e instale-o.
- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.
Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.
SCREENSHOTS
Ad
Web LLM
DESCRIÇÃO
WebLLM é um pacote javascript modular e personalizável que traz bate-papos de modelos de linguagem diretamente para navegadores da web com aceleração de hardware. Tudo roda dentro do navegador sem suporte de servidor e é acelerado com WebGPU. Podemos trazer muitas oportunidades divertidas para criar assistentes de IA para todos e permitir a privacidade enquanto aproveitamos a aceleração da GPU. WebLLM oferece uma interface minimalista e modular para acessar o chatbot no navegador. O pacote WebLLM em si não vem com UI e é projetado de forma modular para conectar-se a qualquer um dos componentes da UI. O trecho de código a seguir demonstra um exemplo simples que gera uma resposta de streaming em uma página da web.
Recursos
- WebLLM vem com suporte de API para WebWorker para que você possa conectar o processo de geração em um thread de trabalho separado para que a computação no webworker não interrompa a UI
- Você pode encontrar um exemplo completo de aplicativo de bate-papo em exemplos/simple-chat
- WebLLM funciona como um projeto complementar do MLC LLM
- Ele reutiliza o artefato do modelo e cria fluxo do MLC LLM
- Construir pacote WebLLM a partir da fonte
- O pacote WebLLM é um tempo de execução da web projetado para MLC LLM
Linguagem de Programação
TypeScript
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/web-llm.mirror/. Foi hospedado em OnWorks para poder ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.