Il s'agit de l'application Linux nommée MedicalGPT dont la dernière version peut être téléchargée sous le nom v1.6.0sourcecode.zip. Il peut être exécuté en ligne chez le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez gratuitement en ligne cette application nommée MedicalGPT avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN:
MédicalGPT
DESCRIPTION:
Modèle GPT médical de formation MedicalGPT avec pipeline de formation ChatGPT, mise en œuvre de la pré-formation, du réglage fin supervisé, de la modélisation des récompenses et de l'apprentissage par renforcement. MedicalGPT forme de grands modèles médicaux, y compris une pré-formation secondaire, un réglage fin supervisé, une modélisation des récompenses et une formation par apprentissage par renforcement.
Fonctionnalités
- La première étape : pré-formation incrémentielle PT (Continue PreTraining), pré-entraînement du modèle GPT deux fois sur des données massives de documents de domaine pour injecter des connaissances dans le domaine
- La deuxième étape : SFT (Supervised Fine-tuning) a supervisé le réglage fin, construit un ensemble de données de réglage fin des instructions et effectue le réglage fin des instructions sur la base du modèle de pré-formation pour aligner les intentions de l'instruction.
- La troisième étape : modélisation du modèle de récompense RM (Reward Model), construction d'un ensemble de données de classement des préférences humaines, formation du modèle de récompense pour aligner les préférences humaines, principalement le principe "HHH", en particulier "utile, honnête, inoffensif".
- La quatrième étape : RL (Reinforcement Learning) est basé sur l'apprentissage par renforcement par feedback humain (RLHF), utilisant le modèle de récompense pour entraîner le modèle SFT, et le modèle de génération utilise des récompenses ou des pénalités pour mettre à jour sa stratégie afin de générer une meilleure qualité, plus conforme aux préférences humaines
- Nous fournissons une interface Web interactive simple basée sur Gradio
- Une fois la formation terminée, nous chargeons maintenant le modèle entraîné pour vérifier l'effet du modèle générant du texte
Langage de programmation
Python
Catégories
Il s'agit d'une application qui peut également être récupérée sur https://sourceforge.net/projects/medicalgpt.mirror/. Il a été hébergé dans OnWorks afin de pouvoir être exécuté en ligne de la manière la plus simple possible à partir de l'un de nos systèmes d'exploitation gratuits.