این برنامه ویندوز با نام TensorRT است که آخرین نسخه آن را می توان با عنوان TensorRTOSSv9.1.0sourcecode.zip دانلود کرد. می توان آن را به صورت آنلاین در ارائه دهنده میزبانی رایگان OnWorks برای ایستگاه های کاری اجرا کرد.
این اپلیکیشن با نام TensorRT را با OnWorks به صورت آنلاین دانلود و اجرا کنید.
برای اجرای این برنامه این دستورالعمل ها را دنبال کنید:
- 1. این برنامه را در رایانه شخصی خود دانلود کنید.
- 2. در فایل منیجر ما https://www.onworks.net/myfiles.php?username=XXXXX نام کاربری مورد نظر خود را وارد کنید.
- 3. این برنامه را در چنین فایل منیجر آپلود کنید.
- 4. هر شبیه ساز آنلاین OS OnWorks را از این وب سایت راه اندازی کنید، اما شبیه ساز آنلاین ویندوز بهتر است.
- 5. از OnWorks Windows OS که به تازگی راه اندازی کرده اید، به مدیر فایل ما https://www.onworks.net/myfiles.php?username=XXXXX با نام کاربری که می خواهید بروید.
- 6. برنامه را دانلود و نصب کنید.
- 7. Wine را از مخازن نرم افزار توزیع لینوکس خود دانلود کنید. پس از نصب، می توانید روی برنامه دوبار کلیک کنید تا آنها را با Wine اجرا کنید. همچنین می توانید PlayOnLinux را امتحان کنید، یک رابط کاربری فانتزی بر روی Wine که به شما کمک می کند برنامه ها و بازی های محبوب ویندوز را نصب کنید.
Wine راهی برای اجرای نرم افزار ویندوز بر روی لینوکس است، اما بدون نیاز به ویندوز. Wine یک لایه سازگار با ویندوز منبع باز است که می تواند برنامه های ویندوز را مستقیماً بر روی هر دسکتاپ لینوکس اجرا کند. اساساً، Wine در تلاش است تا به اندازه کافی از ویندوز را از ابتدا مجدداً پیاده سازی کند تا بتواند همه آن برنامه های ویندوز را بدون نیاز به ویندوز اجرا کند.
عکس ها
Ad
تنفر
شرح
NVIDIA® TensorRT™ یک SDK برای استنتاج یادگیری عمیق با کارایی بالا است. این شامل یک بهینه ساز استنتاج یادگیری عمیق و زمان اجرا است که تأخیر کم و توان عملیاتی بالا را برای برنامه های استنتاج یادگیری عمیق ارائه می دهد. برنامه های مبتنی بر TensorRT در طول استنتاج تا 40 برابر سریعتر از پلتفرم های فقط CPU عمل می کنند. با TensorRT، میتوانید مدلهای شبکه عصبی آموزشدیدهشده در همه چارچوبهای اصلی را بهینه کنید، برای دقت کمتر با دقت بالا کالیبره کنید، و در مراکز دادههای فوق مقیاس، پلتفرمهای محصول تعبیهشده یا خودرو مستقر کنید. TensorRT بر اساس CUDA®، مدل برنامهنویسی موازی NVIDIA ساخته شده است، و شما را قادر میسازد تا کتابخانههای اعمال نفوذ استنتاج، ابزارهای توسعه و فناوریها را در CUDA-X™ برای هوش مصنوعی، ماشینهای مستقل، محاسبات با کارایی بالا و گرافیک بهینه کنید. با پردازندههای گرافیکی جدید NVIDIA Ampere Architecture، TensorRT همچنین از هستههای تانسور پراکنده استفاده میکند که عملکرد بیشتری را افزایش میدهد.
امکانات
- TensorRT INT8 را با استفاده از آموزش Quantization Aware و Post Training Quantization ارائه می کند
- استقرار تولید برنامه های استنتاج یادگیری عمیق مانند پخش ویدئو، تشخیص گفتار، توصیه و غیره.
- کاهش استنتاج دقت به طور قابل توجهی تأخیر برنامه را کاهش می دهد
- با TensorRT، توسعه دهندگان می توانند به جای تنظیم عملکرد برای استقرار استنتاج، بر ایجاد برنامه های کاربردی مبتنی بر هوش مصنوعی جدید تمرکز کنند.
- با حفظ دقت در مدلها، توان عملیاتی را با FP16 یا INT8 به حداکثر میرساند.
- استفاده از حافظه و پهنای باند GPU را با ترکیب گره ها در یک هسته بهینه می کند
زبان برنامه نویسی
++C
دسته بندی ها
این برنامه ای است که می تواند از https://sourceforge.net/projects/tensorrt.mirror/ نیز دریافت شود. در OnWorks میزبانی شده است تا به آسانی از یکی از سیستم عامل های رایگان ما به صورت آنلاین اجرا شود.