Aceasta este aplicația Windows numită DeepSpeed MII a cărei ultimă versiune poate fi descărcată ca DeepSpeedMIIv0.0.8.zip. Poate fi rulat online în furnizorul de găzduire gratuit OnWorks pentru stații de lucru.
Descărcați și rulați online această aplicație numită DeepSpeed MII cu OnWorks gratuit.
Urmați aceste instrucțiuni pentru a rula această aplicație:
- 1. Ați descărcat această aplicație pe computer.
- 2. Introduceți în managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator pe care îl doriți.
- 3. Încărcați această aplicație într-un astfel de manager de fișiere.
- 4. Porniți orice emulator online OS OnWorks de pe acest site, dar mai bun emulator online Windows.
- 5. Din sistemul de operare Windows OnWorks pe care tocmai l-ați pornit, accesați managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator dorit.
- 6. Descărcați aplicația și instalați-o.
- 7. Descărcați Wine din depozitele de software ale distribuțiilor Linux. Odată instalat, puteți apoi să faceți dublu clic pe aplicație pentru a le rula cu Wine. De asemenea, puteți încerca PlayOnLinux, o interfață elegantă peste Wine, care vă va ajuta să instalați programe și jocuri populare Windows.
Wine este o modalitate de a rula software-ul Windows pe Linux, dar fără a fi necesar Windows. Wine este un strat de compatibilitate Windows open-source care poate rula programe Windows direct pe orice desktop Linux. În esență, Wine încearcă să reimplementeze suficient Windows de la zero, astfel încât să poată rula toate acele aplicații Windows fără a avea nevoie efectiv de Windows.
SCREENSHOTS
Ad
DeepSpeed MII
DESCRIERE
MII face posibilă inferența cu latență scăzută și debit mare, alimentată de DeepSpeed. Comunitatea open-source Deep Learning (DL) a cunoscut o creștere extraordinară în ultimele câteva luni. Modele incredibil de puternice de generare de text, cum ar fi Bloom 176B, sau model de generare de imagini precum Stable Diffusion, sunt acum disponibile pentru oricine are acces la o mână sau chiar la un singur GPU prin platforme precum Hugging Face. În timp ce open-sourcing-ul a democratizat accesul la capabilitățile AI, aplicarea acestora este încă restricționată de doi factori critici: latența de inferență și costul. DeepSpeed-MII este o nouă bibliotecă python open-source de la DeepSpeed, menită să facă deducția cu latență scăzută și cu costuri reduse a modelelor puternice nu numai fezabile, ci și ușor accesibile. MII oferă acces la implementarea extrem de optimizată a mii de modele DL utilizate pe scară largă. Modelele suportate de MII obțin o latență și un cost semnificativ mai mici în comparație cu implementarea lor inițială.
DESCRIERE
- MII oferă acces la implementarea extrem de optimizată a mii de modele DL utilizate pe scară largă
- Modelele suportate de MII obțin o latență și un cost semnificativ mai mici în comparație cu implementarea lor inițială
- MII folosește un set extins de optimizări de la DeepSpeed-Inference, cum ar fi deepfusion pentru transformatoare
- Performanță de ultimă generație
- MII acceptă implementarea la costuri reduse a acestor modele atât on-premises, cât și pe Azure prin AML, cu doar câteva rânduri de coduri
- Tăiere automată a tensorului pentru inferență multi-GPU, cuantizare din mers cu ZeroQuant
Limbaj de programare
Piton
Categorii
Aceasta este o aplicație care poate fi preluată și de la https://sourceforge.net/projects/deepspeed-mii.mirror/. A fost găzduit în OnWorks pentru a fi rulat online într-un mod cât mai ușor de pe unul dintre sistemele noastre operative gratuite.