Il s'agit de l'application Windows nommée spacy-llm dont la dernière version peut être téléchargée sous le nom v0.6.2_Patchanthropic-versionheadersourcecode.zip. Il peut être exécuté en ligne chez le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez gratuitement en ligne cette application nommée spacy-llm avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN
Ad
spacy-llm
DESCRIPTION
Les grands modèles linguistiques (LLM) offrent de puissantes capacités de compréhension du langage naturel. Avec seulement quelques exemples (et parfois aucun), un LLM peut être invité à effectuer des tâches NLP personnalisées telles que la catégorisation de texte, la reconnaissance d'entités nommées, la résolution de coréférence, l'extraction d'informations et bien plus encore. Ce package intègre des modèles de langage étendus (LLM) dans spaCy, doté d'un système modulaire pour un prototypage et des invites rapides, et transformant des réponses non structurées en sorties robustes pour diverses tâches de PNL, aucune donnée de formation n'est requise.
Caractéristiques
- Composant LLM sérialisable pour intégrer des invites dans votre pipeline spaCy
- Fonctions modulaires pour définir la tâche (invite et analyse) et le modèle
- Prend en charge les LLM open source hébergés sur Hugging Face
- Implémentation facile de vos propres fonctions via le registre de spaCy pour des invites, des analyses et des intégrations de modèles personnalisées
- Intégration avec LangChain
- Interfaces avec les API d'OpenAI, Cohere et Anthropic
Langage de programmation
Python
Catégories
Il s'agit d'une application qui peut également être récupérée sur https://sourceforge.net/projects/spacy-llm.mirror/. Il a été hébergé dans OnWorks afin de pouvoir être exécuté en ligne de la manière la plus simple possible à partir de l'un de nos systèmes d'exploitation gratuits.