Bu, en son sürümü v2Release.zip olarak indirilebilen llama0.1.14-webui adlı Windows uygulamasıdır. İş istasyonları için ücretsiz barındırma sağlayıcısı OnWorks'te çevrimiçi olarak çalıştırılabilir.
Llama2-webui adlı bu uygulamayı OnWorks ile ücretsiz olarak indirin ve çevrimiçi çalıştırın.
Bu uygulamayı çalıştırmak için şu talimatları izleyin:
- 1. Bu uygulamayı PC'nize indirdiniz.
- 2. Dosya yöneticimize https://www.onworks.net/myfiles.php?username=XXXXX istediğiniz kullanıcı adını girin.
- 3. Bu uygulamayı böyle bir dosya yöneticisine yükleyin.
- 4. Bu web sitesinden herhangi bir OS OnWorks çevrimiçi öykünücüsünü başlatın, ancak daha iyi Windows çevrimiçi öykünücüsü.
- 5. Yeni başlattığınız OnWorks Windows işletim sisteminden, istediğiniz kullanıcı adıyla https://www.onworks.net/myfiles.php?username=XXXXX dosya yöneticimize gidin.
- 6. Uygulamayı indirin ve kurun.
- 7. Wine'ı Linux dağıtımları yazılım havuzlarınızdan indirin. Kurulduktan sonra, Wine ile çalıştırmak için uygulamaya çift tıklayabilirsiniz. Ayrıca, popüler Windows programlarını ve oyunlarını yüklemenize yardımcı olacak Wine üzerinden gösterişli bir arayüz olan PlayOnLinux'u da deneyebilirsiniz.
Wine, Windows yazılımını Linux üzerinde çalıştırmanın bir yoludur, ancak Windows gerektirmez. Wine, Windows programlarını doğrudan herhangi bir Linux masaüstünde çalıştırabilen açık kaynaklı bir Windows uyumluluk katmanıdır. Esasen Wine, Windows'a ihtiyaç duymadan tüm bu Windows uygulamalarını çalıştırabilmesi için yeterince Windows'u sıfırdan yeniden uygulamaya çalışıyor.
EKRAN
Ad
lama2-webui
TANIM
Llama 2'yi GPU veya CPU üzerinde gradio web kullanıcı arayüzü ile herhangi bir yerden (Linux/Windows/Mac) çalıştırma.
Özellikler
- 2 bit, 7 bit moduyla tüm Llama 13 modellerini (70B, 8B, 4B, GPTQ, GGML) destekleme
- Üretken Aracılar/Uygulamalar için yerel lama2 arka ucunuz olarak llama2-wrapper'ı kullanın; ortak çalışma örneği
- Llama2 modellerinde OpenAI Uyumlu API'yi çalıştırın
- Desteklenen modeller: Llama-2-7b/13b/70b, tümü Llama-2-GPTQ, tümü Llama-2-GGML
- Desteklenen model arka uçları: transformatörler, bitsandbytes(8-bit çıkarım), AutoGPTQ(4-bit çıkarım), llama.cpp
- Demolar: Llama2'yi MacBook Air'de çalıştırın; Llama2'yi ücretsiz Colab T4 GPU'da çalıştırın
Programlama dili
Python
Kategoriler
Bu, https://sourceforge.net/projects/llama2-webui.mirror/ adresinden de alınabilecek bir uygulamadır. Ücretsiz İşletim Sistemlerimizden birinden en kolay şekilde çevrimiçi çalıştırılabilmesi için OnWorks'te barındırılmıştır.