זוהי אפליקציית Windows בשם MedicalGPT אשר את המהדורה האחרונה שלה ניתן להוריד כ-v1.6.0sourcecode.zip. ניתן להפעיל אותו באופן מקוון בספק האירוח החינמי OnWorks עבור תחנות עבודה.
הורד והפעל באינטרנט את האפליקציה הזו בשם MedicalGPT עם OnWorks בחינם.
בצע את ההוראות הבאות כדי להפעיל את האפליקציה הזו:
- 1. הורד את היישום הזה למחשב שלך.
- 2. הזן במנהל הקבצים שלנו https://www.onworks.net/myfiles.php?username=XXXXX עם שם המשתמש שאתה רוצה.
- 3. העלה את היישום הזה במנהל קבצים כזה.
- 4. הפעל כל אמולטור מקוון של OS OnWorks מאתר זה, אך עדיף אמולטור מקוון של Windows.
- 5. ממערכת ההפעלה OnWorks Windows שזה עתה התחלת, עבור אל מנהל הקבצים שלנו https://www.onworks.net/myfiles.php?username=XXXXX עם שם המשתמש הרצוי.
- 6. הורד את האפליקציה והתקן אותה.
- 7. הורד את Wine ממאגרי התוכנה שלך להפצות לינוקס. לאחר ההתקנה, תוכל ללחוץ פעמיים על האפליקציה כדי להפעיל אותם עם Wine. אתה יכול גם לנסות את PlayOnLinux, ממשק מפואר מעל Wine שיעזור לך להתקין תוכניות ומשחקים פופולריים של Windows.
Wine היא דרך להפעיל תוכנת Windows על לינוקס, אך ללא צורך ב-Windows. Wine היא שכבת תאימות של Windows בקוד פתוח שיכולה להריץ תוכניות Windows ישירות על כל שולחן עבודה של לינוקס. בעיקרו של דבר, Wine מנסה להטמיע מחדש מספיק של Windows מאפס כדי שהוא יוכל להריץ את כל יישומי Windows מבלי להזדקק ל-Windows.
צילומי מסך:
MedicalGPT
תיאור:
MedicalGPT אימון מודל GPT רפואי עם צינור הדרכה ChatGPT, הטמעת Pretraining, Supervised Finetuning, Reward Modeling ו-Reforcement Learning. MedicalGPT מכשירה מודלים רפואיים גדולים, כולל אימון מקדים משני, כוונון עדין בפיקוח, דוגמנות תגמול והכשרה למידת חיזוק.
תכונות
- השלב הראשון: PT (Continue PreTraining) אימון מקדים מצטבר, אימון מקדים של מודל ה-GPT פעמיים על נתוני מסמכים מסיביים של דומיין כדי להחדיר ידע בתחום
- השלב השני: SFT (Supervised Fine-tuning) מפקחת על כוונון עדין, בונה מערך נתונים של כוונון עדין של הוראות ומבצעת כוונון הוראה על בסיס מודל טרום-האימון ליישור כוונות ההוראה
- השלב השלישי: מודל מודל תגמול של RM (מודל תגמול), בניית מערך נתונים של דירוג העדפות אנושיות, אימון מודל התגמול להתאמה של העדפות אנושיות, בעיקר עקרון "HHH", במיוחד "מועיל, ישר, לא מזיק"
- השלב הרביעי: RL (Reinforcement Learning) מבוסס על למידה של חיזוק משוב אנושי (RLHF), תוך שימוש במודל התגמול לאימון מודל ה-SFT, ומודל הדור משתמש בתגמולים או עונשים כדי לעדכן את האסטרטגיה שלו על מנת לייצר איכות גבוהה יותר, יותר בהתאם להעדפות אנושיות
- אנו מספקים ממשק אינטרנט אינטראקטיבי פשוט מבוסס גראדיו
- לאחר השלמת האימון, כעת אנו טוענים את המודל המאומן כדי לאמת את השפעת הטקסט שיוצר המודל
שפת תכנות
פיתון
כל הקטגוריות
זוהי אפליקציה שניתן להביא גם מ-https://sourceforge.net/projects/medicalgpt.mirror/. הוא התארח ב-OnWorks על מנת להפעיל אותו באינטרנט בצורה הקלה ביותר מאחת ממערכות ההפעלה החינמיות שלנו.