این برنامه ویندوز با نام spacy-llm است که آخرین نسخه آن را می توان با عنوان v0.6.2_Patchanthropic-versionheadersourcecode.zip دانلود کرد. می توان آن را به صورت آنلاین در ارائه دهنده میزبانی رایگان OnWorks برای ایستگاه های کاری اجرا کرد.
این برنامه با نام spacy-llm را با OnWorks به صورت آنلاین دانلود و اجرا کنید.
برای اجرای این برنامه این دستورالعمل ها را دنبال کنید:
- 1. این برنامه را در رایانه شخصی خود دانلود کنید.
- 2. در فایل منیجر ما https://www.onworks.net/myfiles.php?username=XXXXX نام کاربری مورد نظر خود را وارد کنید.
- 3. این برنامه را در چنین فایل منیجر آپلود کنید.
- 4. هر شبیه ساز آنلاین OS OnWorks را از این وب سایت راه اندازی کنید، اما شبیه ساز آنلاین ویندوز بهتر است.
- 5. از OnWorks Windows OS که به تازگی راه اندازی کرده اید، به مدیر فایل ما https://www.onworks.net/myfiles.php?username=XXXXX با نام کاربری که می خواهید بروید.
- 6. برنامه را دانلود و نصب کنید.
- 7. Wine را از مخازن نرم افزار توزیع لینوکس خود دانلود کنید. پس از نصب، می توانید روی برنامه دوبار کلیک کنید تا آنها را با Wine اجرا کنید. همچنین می توانید PlayOnLinux را امتحان کنید، یک رابط کاربری فانتزی بر روی Wine که به شما کمک می کند برنامه ها و بازی های محبوب ویندوز را نصب کنید.
Wine راهی برای اجرای نرم افزار ویندوز بر روی لینوکس است، اما بدون نیاز به ویندوز. Wine یک لایه سازگار با ویندوز منبع باز است که می تواند برنامه های ویندوز را مستقیماً بر روی هر دسکتاپ لینوکس اجرا کند. اساساً، Wine در تلاش است تا به اندازه کافی از ویندوز را از ابتدا مجدداً پیاده سازی کند تا بتواند همه آن برنامه های ویندوز را بدون نیاز به ویندوز اجرا کند.
عکس ها
Ad
Spacy-llm
شرح
مدلهای زبان بزرگ (LLM) دارای قابلیتهای قدرتمند درک زبان طبیعی هستند. تنها با چند مثال (و گاهی اوقات بدون) می توان از یک LLM برای انجام وظایف NLP سفارشی مانند دسته بندی متن، تشخیص نهاد نامگذاری شده، وضوح مرجع، استخراج اطلاعات و موارد دیگر ترغیب شد. این بسته مدلهای زبان بزرگ (LLM) را در spaCy ادغام میکند، دارای یک سیستم مدولار برای نمونهسازی سریع و درخواست، و تبدیل پاسخهای بدون ساختار به خروجیهای قوی برای وظایف مختلف NLP، بدون نیاز به دادههای آموزشی.
امکانات
- مولفه llm قابل سریالسازی برای ادغام درخواستها در خط لوله spaCy شما
- توابع ماژولار برای تعریف کار (اعلان و تجزیه) و مدل
- از LLM های منبع باز میزبانی شده در Hugging Face پشتیبانی می کند
- اجرای آسان توابع خود از طریق رجیستری spaCy برای درخواست سفارشی، تجزیه و ادغام مدل
- ادغام با LangChain
- رابط با API های OpenAI، Cohere و Anthropic
زبان برنامه نویسی
پــایتــون
دسته بندی ها
این برنامه ای است که می تواند از https://sourceforge.net/projects/spacy-llm.mirror/ نیز دریافت شود. در OnWorks میزبانی شده است تا به آسانی از یکی از سیستم عامل های رایگان ما به صورت آنلاین اجرا شود.