Dies ist die Linux-App namens llama2-webui, deren neueste Version als v0.1.14Release.zip heruntergeladen werden kann. Es kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens llama2-webui mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
SCREENSHOTS
Ad
llama2-webui
BESCHREIBUNG
Ausführen von Llama 2 mit Gradio-Web-Benutzeroberfläche auf GPU oder CPU von überall (Linux/Windows/Mac).
Eigenschaften
- Unterstützt alle Llama 2-Modelle (7B, 13B, 70B, GPTQ, GGML) mit 8-Bit- und 4-Bit-Modus
- Verwenden Sie llama2-wrapper als Ihr lokales llama2-Backend für generative Agenten/Apps; Colab-Beispiel
- Führen Sie die OpenAI-kompatible API auf Llama2-Modellen aus
- Unterstützende Modelle: Llama-2-7b/13b/70b, alle Llama-2-GPTQ, alle Llama-2-GGML
- Unterstützende Modell-Backends: Transformatoren, Bitsandbytes (8-Bit-Inferenz), AutoGPTQ (4-Bit-Inferenz), llama.cpp
- Demos: Führen Sie Llama2 auf dem MacBook Air aus; Führen Sie Llama2 auf der kostenlosen Colab T4-GPU aus
Programmiersprache
Python
Kategorien
Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/llama2-webui.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, um es auf einfachste Weise online über eines unserer kostenlosen Betriebssysteme ausführen zu können.