anglaisfrançaisespagnol

Icône de favori OnWorks

Téléchargement de LiteLLM pour Windows

Téléchargez gratuitement l'application Windows LiteLLM pour exécuter Win Wine en ligne dans Ubuntu en ligne, Fedora en ligne ou Debian en ligne.

Il s'agit de l'application Windows nommée LiteLLM dont la dernière version peut être téléchargée sous le nom v0.1.574.zip. Il peut être exécuté en ligne chez le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.

Téléchargez et exécutez gratuitement en ligne cette application nommée LiteLLM avec OnWorks.

Suivez ces instructions pour exécuter cette application :

- 1. Téléchargé cette application sur votre PC.

- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.

- 3. Téléchargez cette application dans ce gestionnaire de fichiers.

- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.

- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.

- 6. Téléchargez l'application et installez-la.

- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.

Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.

CAPTURES D'ÉCRAN

Ad


LiteLLM


DESCRIPTION

Appelez toutes les API LLM en utilisant le format OpenAI [Anthropic, Huggingface, Cohere, Azure OpenAI etc.] liteLLM prend en charge la diffusion en continu de la réponse du modèle, passez stream=True pour obtenir un itérateur de diffusion en continu en réponse. Le streaming est pris en charge pour les modèles OpenAI, Azure, Anthropic et Huggingface.



Fonctionnalités

  • Traduire les entrées jusqu'à l'achèvement du fournisseur et intégrer les points de terminaison
  • Garantit une sortie cohérente, les réponses textuelles seront toujours disponibles
  • Mappage des exceptions
  • Les exceptions courantes entre les fournisseurs sont mappées aux types d'exceptions OpenAI
  • Client LiteLLM - débogage et ajout de nouveaux LLM en 1 clic
  • liteLLM prend en charge la diffusion en continu de la réponse du modèle


Langage de programmation

Python


Catégories

Grands modèles de langage (LLM)

Il s'agit d'une application qui peut également être récupérée sur https://sourceforge.net/projects/litellm.mirror/. Il a été hébergé dans OnWorks afin de pouvoir être exécuté en ligne de la manière la plus simple possible à partir de l'un de nos systèmes d'exploitation gratuits.


Serveurs et postes de travail gratuits

Télécharger des applications Windows et Linux

Commandes Linux

Ad