Aceasta este aplicația Windows numită LLaMA.go a cărei ultimă versiune poate fi descărcată ca v1.4_ServerMode.zip. Poate fi rulat online în furnizorul de găzduire gratuit OnWorks pentru stații de lucru.
Descărcați și rulați online această aplicație numită LLaMA.go cu OnWorks gratuit.
Urmați aceste instrucțiuni pentru a rula această aplicație:
- 1. Ați descărcat această aplicație pe computer.
- 2. Introduceți în managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator pe care îl doriți.
- 3. Încărcați această aplicație într-un astfel de manager de fișiere.
- 4. Porniți orice emulator online OS OnWorks de pe acest site, dar mai bun emulator online Windows.
- 5. Din sistemul de operare Windows OnWorks pe care tocmai l-ați pornit, accesați managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator dorit.
- 6. Descărcați aplicația și instalați-o.
- 7. Descărcați Wine din depozitele de software ale distribuțiilor Linux. Odată instalat, puteți apoi să faceți dublu clic pe aplicație pentru a le rula cu Wine. De asemenea, puteți încerca PlayOnLinux, o interfață elegantă peste Wine, care vă va ajuta să instalați programe și jocuri populare Windows.
Wine este o modalitate de a rula software-ul Windows pe Linux, dar fără a fi necesar Windows. Wine este un strat de compatibilitate Windows open-source care poate rula programe Windows direct pe orice desktop Linux. În esență, Wine încearcă să reimplementeze suficient Windows de la zero, astfel încât să poată rula toate acele aplicații Windows fără a avea nevoie efectiv de Windows.
SCREENSHOTS
Ad
LLaMA.go
DESCRIERE
llama.go este ca llama.cpp în Golang pur. Codul proiectului se bazează pe legendarul framework ggml.cpp al lui Georgi Gerganov scris în C++ cu aceeași atitudine față de performanță și eleganță. Ambele modele stochează greutăți FP32, așa că veți avea nevoie de cel puțin 32 Gb de RAM (nu VRAM sau GPU RAM) pentru LLaMA-7B. Dubla la 64 Gb pentru LLaMA-13B.
DESCRIERE
- Matematică tensorială în Golang pur
- Implementați arhitectura rețelei neuronale LLaMA și încărcarea modelului
- Testați cu modelul LLaMA-7B mai mic
- Asigurați-vă că inferența Go funcționează exact în același mod ca C++
- Lasă să strălucească! Activați multi-threading și mesagerie pentru a crește performanța
- Compatibilitate încrucișată cu Mac, Linux și Windows
Limbaj de programare
Go
Categorii
Aceasta este o aplicație care poate fi preluată și de la https://sourceforge.net/projects/llama-go.mirror/. A fost găzduit în OnWorks pentru a fi rulat online într-un mod cât mai ușor de pe unul dintre sistemele noastre operative gratuite.