Ini adalah aplikasi Linux bernama LLM Foundry yang rilis terbarunya dapat diunduh sebagai v0.3.0.zip. Itu dapat dijalankan secara online di penyedia hosting gratis OnWorks untuk workstation.
Unduh dan jalankan aplikasi ini secara online bernama LLM Foundry dengan OnWorks secara gratis.
Ikuti petunjuk ini untuk menjalankan aplikasi ini:
- 1. Download aplikasi ini di PC Anda.
- 2. Masuk ke file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan username yang anda inginkan.
- 3. Upload aplikasi ini di filemanager tersebut.
- 4. Jalankan emulator online OnWorks Linux atau Windows online atau emulator online MACOS dari situs web ini.
- 5. Dari OS Linux OnWorks yang baru saja Anda mulai, buka file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan nama pengguna yang Anda inginkan.
- 6. Download aplikasinya, install dan jalankan.
Tangkapan layar
Ad
Pengecoran LLM
DESKRIPSI
Memperkenalkan MPT-7B, entri pertama dalam Seri Dasar MosaikML kami. MPT-7B adalah transformator yang dilatih dari awal pada 1T token teks dan kode. Ini adalah open source, tersedia untuk penggunaan komersial, dan sesuai dengan kualitas LLaMA-7B. MPT-7B dilatih di platform MosesML dalam 9.5 hari tanpa intervensi manusia dengan biaya ~$200k. Model bahasa besar (LLM) sedang mengubah dunia, namun bagi mereka yang berada di luar laboratorium industri yang memiliki sumber daya yang baik, akan sangat sulit untuk melatih dan menerapkan model ini. Hal ini menyebabkan banyaknya aktivitas yang berpusat pada LLM sumber terbuka, seperti seri LLaMA dari Meta, seri Pythia dari EleutherAI, seri StableLM dari StabilityAI, dan model OpenLLaMA dari Berkeley AI Research.
Fitur
- Berlisensi untuk penggunaan komersial (tidak seperti LLaMA)
- Dilatih dengan data dalam jumlah besar (token 1T seperti LLaMA vs. 300B untuk Pythia, 300B untuk OpenLLaMA, dan 800B untuk StableLM)
- Bersiap untuk menangani masukan yang sangat panjang berkat ALiBi (kami melatih hingga 65 ribu masukan dan dapat menangani hingga 84 ribu vs. 2k-4k untuk model sumber terbuka lainnya)
- Dioptimalkan untuk pelatihan dan inferensi cepat (melalui FlashAttention dan FasterTransformer)
- Dilengkapi dengan kode pelatihan sumber terbuka yang sangat efisien
- Basis MPT-7B adalah transformator bergaya dekoder dengan parameter 6.7B
Bahasa Pemrograman
Ular sanca
Kategori
Ini adalah aplikasi yang juga dapat diambil dari https://sourceforge.net/projects/llm-foundry.mirror/. Ini telah dihosting di OnWorks untuk dijalankan online dengan cara termudah dari salah satu Sistem Operasi gratis kami.