InglesPransesEspanyol

OnWorks favicon

LLM Foundry download para sa Linux

Libreng download LLM Foundry Linux app para tumakbo online sa Ubuntu online, Fedora online o Debian online

Ito ang Linux app na pinangalanang LLM Foundry na ang pinakabagong release ay maaaring ma-download bilang v0.3.0.zip. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.

I-download at patakbuhin online ang app na ito na pinangalanang LLM Foundry sa OnWorks nang libre.

Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:

- 1. Na-download ang application na ito sa iyong PC.

- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.

- 3. I-upload ang application na ito sa naturang filemanager.

- 4. Simulan ang OnWorks Linux online o Windows online emulator o MACOS online emulator mula sa website na ito.

- 5. Mula sa OnWorks Linux OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.

- 6. I-download ang application, i-install ito at patakbuhin ito.

MGA LALAKI

Ad


LLM Foundry


DESCRIPTION

Ipinapakilala ang MPT-7B, ang unang entry sa aming MosaicML Foundation Series. Ang MPT-7B ay isang transpormer na sinanay mula sa simula sa 1T na mga token ng teksto at code. Ito ay open source, magagamit para sa komersyal na paggamit, at tumutugma sa kalidad ng LLaMA-7B. Ang MPT-7B ay sinanay sa MosaicML platform sa loob ng 9.5 araw na walang interbensyon ng tao sa halagang ~$200k. Binabago ng mga malalaking modelo ng wika (LLM) ang mundo, ngunit para sa mga nasa labas ng mga lab na industriyang may mahusay na mapagkukunan, maaaring napakahirap na sanayin at i-deploy ang mga modelong ito. Nagdulot ito ng kaguluhan ng aktibidad na nakasentro sa mga open-source na LLM, gaya ng serye ng LLaMA mula sa Meta, ang serye ng Pythia mula sa EleutherAI, ang serye ng StableLM mula sa StabilityAI, at ang modelong OpenLLaMA mula sa Berkeley AI Research.



Mga tampok

  • Lisensyado para sa komersyal na paggamit (hindi katulad ng LLaMA)
  • Sinanay sa malaking dami ng data (1T token tulad ng LLaMA vs. 300B para sa Pythia, 300B para sa OpenLLaMA, at 800B para sa StableLM)
  • Handang humawak ng napakahabang input salamat sa ALiBi (nagsanay kami ng hanggang 65k input at kayang humawak ng hanggang 84k vs. 2k-4k para sa iba pang open source na modelo)
  • Na-optimize para sa mabilis na pagsasanay at hinuha (sa pamamagitan ng FlashAttention at FasterTransformer)
  • Nilagyan ng napakahusay na open-source training code
  • Ang MPT-7B Base ay isang decoder-style transformer na may 6.7B na mga parameter


Wika ng Programming

Sawa


Kategorya

Malaking Modelo ng Wika (LLM)

Ito ay isang application na maaari ding kunin mula sa https://sourceforge.net/projects/llm-foundry.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.


Mga Libreng Server at Workstation

Mag-download ng Windows at Linux apps

Linux command

Ad