Il s'agit de l'application Windows nommée Web LLM dont la dernière version peut être téléchargée sous le nom de v0.2.0.zip. Il peut être exécuté en ligne chez le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez gratuitement en ligne cette application nommée Web LLM avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN
Ad
LLM Web
DESCRIPTION
WebLLM est un package javascript modulaire et personnalisable qui amène directement les discussions de modèles de langage directement sur les navigateurs Web avec accélération matérielle. Tout s'exécute dans le navigateur sans prise en charge du serveur et est accéléré avec WebGPU. Nous pouvons offrir de nombreuses opportunités amusantes pour créer des assistants IA pour tout le monde et garantir la confidentialité tout en profitant de l’accélération GPU. WebLLM propose une interface minimaliste et modulaire pour accéder au chatbot dans le navigateur. Le package WebLLM lui-même n'est pas fourni avec l'interface utilisateur et est conçu de manière modulaire pour s'accrocher à l'un des composants de l'interface utilisateur. L'extrait de code suivant montre un exemple simple qui génère une réponse en streaming sur une page Web.
Fonctionnalités
- WebLLM est livré avec la prise en charge de l'API pour WebWorker afin que vous puissiez connecter le processus de génération à un thread de travail distinct afin que le calcul dans le webworker ne perturbe pas l'interface utilisateur.
- Vous pouvez trouver un exemple complet d'application de chat dans examples/simple-chat
- WebLLM fonctionne comme un projet compagnon de MLC LLM
- Il réutilise l'artefact du modèle et crée le flux de MLC LLM
- Créer un package WebLLM à partir de la source
- Le package WebLLM est un runtime Web conçu pour MLC LLM
Langage de programmation
Manuscrit
Catégories
Il s'agit d'une application qui peut également être récupérée sur https://sourceforge.net/projects/web-llm.mirror/. Il a été hébergé dans OnWorks afin de pouvoir être exécuté en ligne de la manière la plus simple possible à partir de l'un de nos systèmes d'exploitation gratuits.