Ito ang Windows app na pinangalanang llm na ang pinakabagong release ay maaaring ma-download bilang llm-cli-x86_64-pc-windows-msvc.zip. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.
I-download at patakbuhin online ang app na ito na pinangalanang llm sa OnWorks nang libre.
Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:
- 1. Na-download ang application na ito sa iyong PC.
- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.
- 3. I-upload ang application na ito sa naturang filemanager.
- 4. Magsimula ng anumang OS OnWorks online emulator mula sa website na ito, ngunit mas mahusay na Windows online emulator.
- 5. Mula sa OnWorks Windows OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.
- 6. I-download ang application at i-install ito.
- 7. I-download ang Wine mula sa iyong mga Linux distributions software repository. Kapag na-install na, maaari mong i-double click ang app upang patakbuhin ang mga ito gamit ang Wine. Maaari mo ring subukan ang PlayOnLinux, isang magarbong interface sa ibabaw ng Wine na tutulong sa iyong mag-install ng mga sikat na programa at laro sa Windows.
Ang alak ay isang paraan upang patakbuhin ang software ng Windows sa Linux, ngunit walang kinakailangang Windows. Ang alak ay isang open-source na layer ng compatibility ng Windows na maaaring direktang magpatakbo ng mga program sa Windows sa anumang desktop ng Linux. Sa totoo lang, sinusubukan ng Wine na muling ipatupad ang sapat na Windows mula sa simula upang mapatakbo nito ang lahat ng mga Windows application na iyon nang hindi talaga nangangailangan ng Windows.
MGA LALAKI
Ad
llm
DESCRIPTION
Ang llm ay isang ecosystem ng Rust library para sa pagtatrabaho sa malalaking modelo ng wika - ito ay binuo sa ibabaw ng mabilis, mahusay na library ng GGML para sa machine learning. Ang pangunahing entry point para sa mga developer ay ang llm crate, na bumabalot sa llm-base at ang mga sinusuportahang model crates. Ang dokumentasyon para sa inilabas na bersyon ay available sa Docs.rs. Para sa mga end-user, mayroong isang CLI application, llm-cli, na nagbibigay ng maginhawang interface para sa pakikipag-ugnayan sa mga sinusuportahang modelo. Maaaring gawin ang pagbuo ng teksto bilang one-off batay sa isang prompt, o interactive, sa pamamagitan ng REPL o mga chat mode. Magagamit din ang CLI para i-serialize (i-print) ang mga decoded na modelo, i-quantize ang mga GGML file, o kalkulahin ang kaguluhan ng isang modelo. Maaari itong ma-download mula sa pinakabagong release ng GitHub o sa pamamagitan ng pag-install nito mula sa crates.io.
Mga tampok
- Ang llm ay pinapagana ng ggml tensor library, at naglalayong dalhin ang katatagan at kadalian ng paggamit ng Rust sa mundo ng malalaking modelo ng wika
- Ang proyektong ito ay nakasalalay sa Rust v1.65.0 o mas mataas at isang modernong C toolchain
- Ang llm library ay inengineered para samantalahin ang mga hardware accelerators gaya ng cuda at metal para sa optimized performance
- Upang paganahin ang llm na gamitin ang mga accelerator na ito, kailangan ang ilang paunang hakbang sa pagsasaayos
- Ang pinakamadaling paraan para makapagsimula sa llm-cli ay ang mag-download ng pre-built executable mula sa inilabas na bersyon ng llm
- Bilang default, bumubuo ang llm na may suporta para sa malayuang pagkuha ng tokenizer mula sa hub ng modelo ng Hugging Face
Wika ng Programming
Kalawang
Kategorya
Ito ay isang application na maaari ding makuha mula sa https://sourceforge.net/projects/llm.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.