Esta es la aplicación de Linux denominada MedicalGPT cuya última versión se puede descargar como v1.6.0sourcecode.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada MedicalGPT con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
CAPTURAS DE PANTALLA:
MédicoGPT
DESCRIPCIÓN:
Modelo médico GPT de capacitación de MedicalGPT con canal de capacitación ChatGPT, implementación de capacitación previa, ajuste supervisado, modelado de recompensas y aprendizaje por refuerzo. MedicalGPT entrena modelos médicos de gran tamaño, incluido el preentrenamiento secundario, el ajuste fino supervisado, el modelado de recompensas y el entrenamiento de aprendizaje por refuerzo.
Caracteristicas
- La primera etapa: entrenamiento previo incremental PT (Continue PreTraining), entrenamiento previo del modelo GPT dos veces en datos de documentos de dominio masivos para inyectar conocimiento del dominio
- La segunda etapa: SFT (Ajuste fino supervisado) ha supervisado el ajuste fino, construye un conjunto de datos de ajuste fino de instrucciones y realiza el ajuste fino de instrucciones sobre la base del modelo de entrenamiento previo para alinear las intenciones de instrucción.
- La tercera etapa: modelado del modelo de recompensa RM (modelo de recompensa), construcción de un conjunto de datos de clasificación de preferencias humanas y entrenamiento del modelo de recompensa para alinear las preferencias humanas, principalmente el principio "HHH", específicamente "útil, honesto, inofensivo".
- La cuarta etapa: RL (Aprendizaje reforzado) se basa en el aprendizaje reforzado por retroalimentación humana (RLHF), utilizando el modelo de recompensa para entrenar el modelo SFT, y el modelo de generación usa recompensas o penalizaciones para actualizar su estrategia con el fin de generar mayor calidad, más en línea con las preferencias humanas
- Proporcionamos una interfaz web interactiva sencilla basada en Gradio
- Una vez completado el entrenamiento, ahora cargamos el modelo entrenado para verificar el efecto del modelo que genera texto.
Lenguaje de programación
Python
Categorías
Esta es una aplicación que también se puede obtener de https://sourceforge.net/projects/medicalgpt.mirror/. Ha sido alojado en OnWorks para poder ejecutarlo online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.