Bu, en son sürümü v0.3.9sourcecode.zip olarak indirilebilen OpenLLM adlı Windows uygulamasıdır. İş istasyonları için ücretsiz barındırma sağlayıcısı OnWorks'te çevrimiçi olarak çalıştırılabilir.
OpenLLM adlı bu uygulamayı OnWorks ile ücretsiz olarak indirin ve çevrimiçi çalıştırın.
Bu uygulamayı çalıştırmak için şu talimatları izleyin:
- 1. Bu uygulamayı PC'nize indirdiniz.
- 2. Dosya yöneticimize https://www.onworks.net/myfiles.php?username=XXXXX istediğiniz kullanıcı adını girin.
- 3. Bu uygulamayı böyle bir dosya yöneticisine yükleyin.
- 4. Bu web sitesinden herhangi bir OS OnWorks çevrimiçi öykünücüsünü başlatın, ancak daha iyi Windows çevrimiçi öykünücüsü.
- 5. Yeni başlattığınız OnWorks Windows işletim sisteminden, istediğiniz kullanıcı adıyla https://www.onworks.net/myfiles.php?username=XXXXX dosya yöneticimize gidin.
- 6. Uygulamayı indirin ve kurun.
- 7. Wine'ı Linux dağıtımları yazılım havuzlarınızdan indirin. Kurulduktan sonra, Wine ile çalıştırmak için uygulamaya çift tıklayabilirsiniz. Ayrıca, popüler Windows programlarını ve oyunlarını yüklemenize yardımcı olacak Wine üzerinden gösterişli bir arayüz olan PlayOnLinux'u da deneyebilirsiniz.
Wine, Windows yazılımını Linux üzerinde çalıştırmanın bir yoludur, ancak Windows gerektirmez. Wine, Windows programlarını doğrudan herhangi bir Linux masaüstünde çalıştırabilen açık kaynaklı bir Windows uyumluluk katmanıdır. Esasen Wine, Windows'a ihtiyaç duymadan tüm bu Windows uygulamalarını çalıştırabilmesi için yeterince Windows'u sıfırdan yeniden uygulamaya çalışıyor.
EKRAN
Ad
OpenLLM
TANIM
Üretimde büyük dil modellerinin (LLM'ler) çalıştırılmasına yönelik açık bir platform. Herhangi bir LLM'ye kolaylıkla ince ayar yapın, hizmet verin, dağıtın ve izleyin. OpenLLM ile herhangi bir açık kaynaklı geniş dilli modelle çıkarım yapabilir, bulutta veya şirket içinde dağıtım yapabilir ve güçlü yapay zeka uygulamaları oluşturabilirsiniz. Yerleşik, Llama 2, StableLM, Falcon, Dolly, Flan-T5, ChatGLM, StarCoder ve daha fazlası dahil olmak üzere çok çeşitli açık kaynaklı LLM'leri ve model çalışma zamanını destekler. Tek komutla, WebUI, CLI, Python/Javascript istemcimiz veya herhangi bir HTTP istemcisi aracılığıyla sorgulama yaparak LLM'leri RESTful API veya gRPC üzerinden sunun.
Özellikler
- Herhangi bir LLM'de kolaylıkla ince ayar yapın, servis yapın, dağıtın ve izleyin
- Son teknoloji LLM'ler
- Esnek API'ler
- İnşa Etme Özgürlüğü
- Dağıtımı Kolaylaştırın
- Kendi LLM'nizi getirin
Programlama dili
Python
Kategoriler
Bu, https://sourceforge.net/projects/openllm.mirror/ adresinden de alınabilecek bir uygulamadır. Ücretsiz İşletim Sistemlerimizden birinden en kolay şekilde çevrimiçi çalıştırılabilmesi için OnWorks'te barındırılmıştır.