این برنامه ویندوزی با نام MedicalGPT است که آخرین نسخه آن را می توان با عنوان v1.6.0sourcecode.zip دانلود کرد. می توان آن را به صورت آنلاین در ارائه دهنده میزبانی رایگان OnWorks برای ایستگاه های کاری اجرا کرد.
این اپلیکیشن با نام MedicalGPT را با OnWorks به صورت آنلاین دانلود و اجرا کنید.
برای اجرای این برنامه این دستورالعمل ها را دنبال کنید:
- 1. این برنامه را در رایانه شخصی خود دانلود کنید.
- 2. در فایل منیجر ما https://www.onworks.net/myfiles.php?username=XXXXX نام کاربری مورد نظر خود را وارد کنید.
- 3. این برنامه را در چنین فایل منیجر آپلود کنید.
- 4. هر شبیه ساز آنلاین OS OnWorks را از این وب سایت راه اندازی کنید، اما شبیه ساز آنلاین ویندوز بهتر است.
- 5. از OnWorks Windows OS که به تازگی راه اندازی کرده اید، به مدیر فایل ما https://www.onworks.net/myfiles.php?username=XXXXX با نام کاربری که می خواهید بروید.
- 6. برنامه را دانلود و نصب کنید.
- 7. Wine را از مخازن نرم افزار توزیع لینوکس خود دانلود کنید. پس از نصب، می توانید روی برنامه دوبار کلیک کنید تا آنها را با Wine اجرا کنید. همچنین می توانید PlayOnLinux را امتحان کنید، یک رابط کاربری فانتزی بر روی Wine که به شما کمک می کند برنامه ها و بازی های محبوب ویندوز را نصب کنید.
Wine راهی برای اجرای نرم افزار ویندوز بر روی لینوکس است، اما بدون نیاز به ویندوز. Wine یک لایه سازگار با ویندوز منبع باز است که می تواند برنامه های ویندوز را مستقیماً بر روی هر دسکتاپ لینوکس اجرا کند. اساساً، Wine در تلاش است تا به اندازه کافی از ویندوز را از ابتدا مجدداً پیاده سازی کند تا بتواند همه آن برنامه های ویندوز را بدون نیاز به ویندوز اجرا کند.
عکس ها
Ad
MedicalGPT
شرح
آموزش MedicalGPT مدل GPT پزشکی با خط لوله آموزش ChatGPT، پیاده سازی Pretraining، Supervised Finetuning، Reward Modeling و Reinforcement Learning. MedicalGPT مدلهای پزشکی بزرگ را آموزش میدهد، از جمله پیشآموزش ثانویه، تنظیم دقیق، مدلسازی پاداش، و آموزش تقویتی.
امکانات
- مرحله اول: پیشآموزش افزایشی PT (ادامه پیشآموزش)، پیشآموزش مدل GPT دو بار بر روی دادههای اسناد دامنه عظیم برای تزریق دانش دامنه
- مرحله دوم: SFT (Supervised Fine-tuning) بر تنظیم دقیق نظارت می کند، یک مجموعه داده تنظیم دقیق دستورالعمل ایجاد می کند، و تنظیم دقیق دستورالعمل را بر اساس مدل قبل از آموزش انجام می دهد تا اهداف دستورالعمل را تراز کند.
- مرحله سوم: مدلسازی مدل پاداش RM (مدل پاداش)، ساخت مجموعه دادههای رتبهبندی ترجیحات انسانی، آموزش مدل پاداش برای همسو کردن ترجیحات انسان، عمدتاً اصل "HHH"، به ویژه "مفید، صادقانه، بیضرر"
- مرحله چهارم: RL (Reinforcement Learning) مبتنی بر یادگیری تقویتی بازخورد انسانی (RLHF) است که از مدل پاداش برای آموزش مدل SFT استفاده می کند و مدل تولید از پاداش یا جریمه ها برای به روز رسانی استراتژی خود برای تولید کیفیت بالاتر و بیشتر استفاده می کند. مطابق با ترجیحات انسانی
- ما یک رابط وب تعاملی ساده مبتنی بر Gradio ارائه می دهیم
- پس از اتمام آموزش، اکنون مدل آموزش دیده را بارگذاری می کنیم تا تأثیر متن تولید مدل را بررسی کنیم
زبان برنامه نویسی
پــایتــون
دسته بندی ها
این برنامه ای است که می تواند از https://sourceforge.net/projects/medicalgpt.mirror/ نیز دریافت شود. در OnWorks میزبانی شده است تا به آسانی از یکی از سیستم عامل های رایگان ما به صورت آنلاین اجرا شود.