Dies ist die Windows-App namens Web LLM, deren neueste Version als v0.2.0.zip heruntergeladen werden kann. Es kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens Web LLM mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS
Ad
Web-LLM
BESCHREIBUNG
WebLLM ist ein modulares, anpassbares Javascript-Paket, das Sprachmodell-Chats mit Hardwarebeschleunigung direkt in Webbrowser bringt. Alles läuft im Browser ohne Serverunterstützung und wird mit WebGPU beschleunigt. Wir können viele unterhaltsame Möglichkeiten bieten, KI-Assistenten für alle zu entwickeln, Privatsphäre zu ermöglichen und gleichzeitig die GPU-Beschleunigung zu genießen. WebLLM bietet eine minimalistische und modulare Schnittstelle für den Zugriff auf den Chatbot im Browser. Das WebLLM-Paket selbst enthält keine Benutzeroberfläche und ist modular aufgebaut, um eine Verbindung zu allen UI-Komponenten herzustellen. Der folgende Codeausschnitt zeigt ein einfaches Beispiel, das eine Streaming-Antwort auf einer Webseite generiert.
Eigenschaften
- WebLLM bietet API-Unterstützung für WebWorker, sodass Sie den Generierungsprozess in einen separaten Worker-Thread einbinden können, sodass die Rechenleistung im WebWorker die Benutzeroberfläche nicht stört
- Ein vollständiges Beispiel für eine Chat-App finden Sie unter Beispiele/Simple-Chat
- WebLLM fungiert als Begleitprojekt von MLC LLM
- Es verwendet das Modellartefakt wieder und baut den Fluss von MLC LLM auf
- Erstellen Sie ein WebLLM-Paket aus der Quelle
- Das WebLLM-Paket ist eine Web-Laufzeitumgebung, die für MLC LLM entwickelt wurde
Programmiersprache
Typoskript
Kategorien
Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/web-llm.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, um es auf einfachste Weise online über eines unserer kostenlosen Betriebssysteme ausführen zu können.