Dit is de Linux-app genaamd llama2-webui waarvan de nieuwste release kan worden gedownload als v0.1.14Release.zip. Het kan online worden uitgevoerd in de gratis hostingprovider OnWorks voor werkstations.
Download en voer deze app genaamd llama2-webui gratis online uit met OnWorks.
Volg deze instructies om deze app uit te voeren:
- 1. Download deze applicatie op uw pc.
- 2. Voer in onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX in met de gebruikersnaam die u wilt.
- 3. Upload deze applicatie in zo'n bestandsbeheerder.
- 4. Start de OnWorks Linux online of Windows online emulator of MACOS online emulator vanaf deze website.
- 5. Ga vanuit het OnWorks Linux-besturingssysteem dat u zojuist hebt gestart naar onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX met de gewenste gebruikersnaam.
- 6. Download de applicatie, installeer hem en voer hem uit.
SCREENSHOTS
Ad
lama2-webui
PRODUCTBESCHRIJVING
Draai Llama 2 met gradio web-UI op GPU of CPU, waar dan ook (Linux/Windows/Mac).
Kenmerken
- Ondersteuning van alle Llama 2-modellen (7B, 13B, 70B, GPTQ, GGML) met 8-bit, 4-bit-modus
- Gebruik llama2-wrapper als uw lokale llama2-backend voor generatieve agenten/apps; colab voorbeeld
- Voer OpenAI-compatibele API uit op Llama2-modellen
- Ondersteunende modellen: Llama-2-7b/13b/70b, alle Llama-2-GPTQ, alle Llama-2-GGML
- Ondersteunende model-backends: transformatoren, bitsandbytes (8-bit inferentie), AutoGPTQ (4-bit inferentie), llama.cpp
- Demo's: Voer Llama2 uit op MacBook Air; Voer Llama2 uit op de gratis Colab T4 GPU
Programmeertaal
Python
Categorieën
Dit is een applicatie die ook kan worden opgehaald van https://sourceforge.net/projects/llama2-webui.mirror/. Het is gehost in OnWorks zodat het op de eenvoudigste manier online kan worden uitgevoerd vanaf een van onze gratis besturingssystemen.