Ini adalah aplikasi Windows bernama LiteLLM yang rilis terbarunya dapat diunduh sebagai v0.1.574.zip. Ini dapat dijalankan secara online di penyedia hosting gratis OnWorks untuk workstation.
Unduh dan jalankan aplikasi ini secara online bernama LiteLLM dengan OnWorks secara gratis.
Ikuti petunjuk ini untuk menjalankan aplikasi ini:
- 1. Download aplikasi ini di PC Anda.
- 2. Masuk ke file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan username yang anda inginkan.
- 3. Upload aplikasi ini di filemanager tersebut.
- 4. Mulai emulator online OS OnWorks apa pun dari situs web ini, tetapi emulator online Windows yang lebih baik.
- 5. Dari OS Windows OnWorks yang baru saja Anda mulai, buka file manager kami https://www.onworks.net/myfiles.php?username=XXXXX dengan nama pengguna yang Anda inginkan.
- 6. Unduh aplikasi dan instal.
- 7. Unduh Wine dari repositori perangkat lunak distribusi Linux Anda. Setelah terinstal, Anda kemudian dapat mengklik dua kali aplikasi untuk menjalankannya dengan Wine. Anda juga dapat mencoba PlayOnLinux, antarmuka mewah di atas Wine yang akan membantu Anda menginstal program dan game Windows populer.
Wine adalah cara untuk menjalankan perangkat lunak Windows di Linux, tetapi tidak memerlukan Windows. Wine adalah lapisan kompatibilitas Windows sumber terbuka yang dapat menjalankan program Windows secara langsung di desktop Linux apa pun. Pada dasarnya, Wine mencoba untuk mengimplementasikan kembali Windows dari awal sehingga dapat menjalankan semua aplikasi Windows tersebut tanpa benar-benar membutuhkan Windows.
SCREENSHOT:
LiteLLM
DESKRIPSI:
Panggil semua API LLM menggunakan format OpenAI [Anthropic, Huggingface, Cohere, Azure OpenAI, dll.] liteLLM mendukung streaming kembali respons model, teruskan stream=True untuk mendapatkan iterator streaming sebagai respons. Streaming didukung untuk model OpenAI, Azure, Anthropic, dan Huggingface.
Fitur
- Menerjemahkan masukan ke penyelesaian penyedia dan menyematkan titik akhir
- Menjamin keluaran yang konsisten, tanggapan teks akan selalu tersedia
- Pemetaan pengecualian
- Pengecualian umum di seluruh penyedia dipetakan ke jenis pengecualian OpenAI
- Klien LiteLLM - debugging & 1-klik tambahkan LLM baru
- liteLLM mendukung streaming kembali respons model
Bahasa Pemrograman
Ular sanca
Kategori
Ini adalah aplikasi yang juga dapat diambil dari https://sourceforge.net/projects/litellm.mirror/. Ini telah dihosting di OnWorks untuk dijalankan online dengan cara termudah dari salah satu Sistem Operasi gratis kami.