این برنامه ویندوز با نام llm است که آخرین نسخه آن را می توان با نام llm-cli-x86_64-pc-windows-msvc.zip دانلود کرد. می توان آن را به صورت آنلاین در ارائه دهنده میزبانی رایگان OnWorks برای ایستگاه های کاری اجرا کرد.
این اپلیکیشن به نام llm را با OnWorks به صورت آنلاین دانلود و اجرا کنید.
برای اجرای این برنامه این دستورالعمل ها را دنبال کنید:
- 1. این برنامه را در رایانه شخصی خود دانلود کنید.
- 2. در فایل منیجر ما https://www.onworks.net/myfiles.php?username=XXXXX نام کاربری مورد نظر خود را وارد کنید.
- 3. این برنامه را در چنین فایل منیجر آپلود کنید.
- 4. هر شبیه ساز آنلاین OS OnWorks را از این وب سایت راه اندازی کنید، اما شبیه ساز آنلاین ویندوز بهتر است.
- 5. از OnWorks Windows OS که به تازگی راه اندازی کرده اید، به مدیر فایل ما https://www.onworks.net/myfiles.php?username=XXXXX با نام کاربری که می خواهید بروید.
- 6. برنامه را دانلود و نصب کنید.
- 7. Wine را از مخازن نرم افزار توزیع لینوکس خود دانلود کنید. پس از نصب، می توانید روی برنامه دوبار کلیک کنید تا آنها را با Wine اجرا کنید. همچنین می توانید PlayOnLinux را امتحان کنید، یک رابط کاربری فانتزی بر روی Wine که به شما کمک می کند برنامه ها و بازی های محبوب ویندوز را نصب کنید.
Wine راهی برای اجرای نرم افزار ویندوز بر روی لینوکس است، اما بدون نیاز به ویندوز. Wine یک لایه سازگار با ویندوز منبع باز است که می تواند برنامه های ویندوز را مستقیماً بر روی هر دسکتاپ لینوکس اجرا کند. اساساً، Wine در تلاش است تا به اندازه کافی از ویندوز را از ابتدا مجدداً پیاده سازی کند تا بتواند همه آن برنامه های ویندوز را بدون نیاز به ویندوز اجرا کند.
عکس ها
Ad
llm
شرح
llm یک اکوسیستم از کتابخانههای Rust برای کار با مدلهای زبان بزرگ است - بر روی کتابخانه سریع و کارآمد GGML برای یادگیری ماشین ساخته شده است. نقطه ورود اولیه برای توسعه دهندگان جعبه llm است که پایه llm و جعبه های مدل پشتیبانی شده را می پوشاند. اسناد نسخه منتشر شده در Docs.rs موجود است. برای کاربران نهایی، یک برنامه CLI به نام llm-cli وجود دارد که یک رابط کاربری مناسب برای تعامل با مدل های پشتیبانی شده ارائه می دهد. تولید متن می تواند به صورت یکباره بر اساس یک اعلان یا به صورت تعاملی از طریق حالت های REPL یا چت انجام شود. CLI همچنین میتواند برای سریالسازی (چاپ) مدلهای رمزگشایی شده، کمی کردن فایلهای GGML، یا محاسبه گیجی یک مدل استفاده شود. می توان آن را از آخرین نسخه GitHub یا با نصب آن از crates.io دانلود کرد.
امکانات
- llm از کتابخانه تانسور ggml پشتیبانی میکند و هدف آن ارائه استحکام و سهولت استفاده از Rust به دنیای مدلهای زبان بزرگ است.
- این پروژه به Rust نسخه 1.65.0 یا بالاتر و یک زنجیره ابزار مدرن C بستگی دارد
- کتابخانه llm طوری طراحی شده است که از شتاب دهنده های سخت افزاری مانند cuda و فلز برای عملکرد بهینه استفاده کند.
- برای فعال کردن llm برای مهار این شتابدهندهها، برخی مراحل پیکربندی اولیه لازم است
- ساده ترین راه برای شروع کار با llm-cli دانلود یک فایل اجرایی از پیش ساخته شده از نسخه منتشر شده llm است.
- به طور پیشفرض، llm با پشتیبانی از واکشی از راه دور توکنایزر از مرکز مدل Hugging Face ساخته میشود.
زبان برنامه نویسی
زنگ
دسته بندی ها
این برنامه ای است که می تواند از https://sourceforge.net/projects/llm.mirror/ نیز دریافت شود. در OnWorks میزبانی شده است تا به آسانی از یکی از سیستم عامل های رایگان ما به صورت آنلاین اجرا شود.