Aceasta este aplicația Linux numită llm a cărei ultimă versiune poate fi descărcată ca llm-cli-x86_64-pc-windows-msvc.zip. Poate fi rulat online în furnizorul de găzduire gratuit OnWorks pentru stații de lucru.
Descărcați și rulați online această aplicație numită llm cu OnWorks gratuit.
Urmați aceste instrucțiuni pentru a rula această aplicație:
- 1. Ați descărcat această aplicație pe computer.
- 2. Introduceți în managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator pe care îl doriți.
- 3. Încărcați această aplicație într-un astfel de manager de fișiere.
- 4. Porniți emulatorul online OnWorks Linux sau Windows online sau emulatorul online MACOS de pe acest site web.
- 5. Din sistemul de operare OnWorks Linux pe care tocmai l-ați pornit, accesați managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator dorit.
- 6. Descărcați aplicația, instalați-o și rulați-o.
SCREENSHOTS
Ad
LLM
DESCRIERE
llm este un ecosistem de biblioteci Rust pentru lucrul cu modele de limbaj mari - este construit pe baza bibliotecii GGML rapidă și eficientă pentru învățarea automată. Punctul de intrare principal pentru dezvoltatori este cutia llm, care înfășoară baza llm și cutiile de model acceptate. Documentația pentru versiunea lansată este disponibilă pe Docs.rs. Pentru utilizatorii finali, există o aplicație CLI, llm-cli, care oferă o interfață convenabilă pentru interacțiunea cu modelele acceptate. Generarea textului se poate face ca o singură dată, pe baza unui prompt, sau interactiv, prin REPL sau modurile de chat. CLI poate fi, de asemenea, utilizat pentru a serializa (imprima) modele decodate, pentru a cuantifica fișiere GGML sau pentru a calcula perplexitatea unui model. Poate fi descărcat din cea mai recentă versiune GitHub sau instalându-l de pe crates.io.
DESCRIERE
- llm este alimentat de biblioteca de tensori ggml și își propune să aducă robustețea și ușurința de utilizare a Rust în lumea modelelor de limbaj mari.
- Acest proiect depinde de Rust v1.65.0 sau mai recent și de un lanț de instrumente C modern
- Biblioteca llm este proiectată pentru a profita de acceleratoarele hardware, cum ar fi cuda și metal, pentru performanțe optimizate
- Pentru a permite llm să utilizeze aceste acceleratoare, sunt necesari câțiva pași preliminari de configurare
- Cel mai simplu mod de a începe cu llm-cli este să descărcați un executabil pre-construit dintr-o versiune lansată de llm
- În mod implicit, llm creează cu suport pentru preluarea de la distanță a tokenizatorului de la hub-ul modelului Hugging Face
Limbaj de programare
Rugină
Categorii
Aceasta este o aplicație care poate fi preluată și de la https://sourceforge.net/projects/llm.mirror/. A fost găzduit în OnWorks pentru a fi rulat online într-un mod cât mai ușor de pe unul dintre sistemele noastre operative gratuite.