Ito ang Windows app na pinangalanang Triton Inference Server na ang pinakabagong release ay maaaring ma-download bilang Release2.38.0correspondingtoNGCcontainer23.09.zip. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.
I-download at patakbuhin online ang app na ito na pinangalanang Triton Inference Server na may OnWorks nang libre.
Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:
- 1. Na-download ang application na ito sa iyong PC.
- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.
- 3. I-upload ang application na ito sa naturang filemanager.
- 4. Magsimula ng anumang OS OnWorks online emulator mula sa website na ito, ngunit mas mahusay na Windows online emulator.
- 5. Mula sa OnWorks Windows OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.
- 6. I-download ang application at i-install ito.
- 7. I-download ang Wine mula sa iyong mga Linux distributions software repository. Kapag na-install na, maaari mong i-double click ang app upang patakbuhin ang mga ito gamit ang Wine. Maaari mo ring subukan ang PlayOnLinux, isang magarbong interface sa ibabaw ng Wine na tutulong sa iyong mag-install ng mga sikat na programa at laro sa Windows.
Ang alak ay isang paraan upang patakbuhin ang software ng Windows sa Linux, ngunit walang kinakailangang Windows. Ang alak ay isang open-source na layer ng compatibility ng Windows na maaaring direktang magpatakbo ng mga program sa Windows sa anumang desktop ng Linux. Sa totoo lang, sinusubukan ng Wine na muling ipatupad ang sapat na Windows mula sa simula upang mapatakbo nito ang lahat ng mga Windows application na iyon nang hindi talaga nangangailangan ng Windows.
MGA LALAKI
Ad
Triton Inference Server
DESCRIPTION
Ang Triton Inference Server ay isang open-source inference serving software na nag-streamline ng AI inferencing. Binibigyang-daan ng Triton ang mga team na mag-deploy ng anumang AI model mula sa maraming deep learning at machine learning frameworks, kabilang ang TensorRT, TensorFlow, PyTorch, ONNX, OpenVINO, Python, RAPIDS FIL, at higit pa. Sinusuportahan ng Triton ang inference sa cloud, data center, edge, at mga naka-embed na device sa NVIDIA GPUs, x86 at ARM CPU, o AWS Inferentia. Naghahatid ang Triton ng na-optimize na pagganap para sa maraming uri ng query, kabilang ang real-time, batched, ensembles, at audio/video streaming. Nagbibigay ng Backend API na nagbibigay-daan sa pagdaragdag ng mga custom na backend at pre/post-processing operations. Mga modelo ng pipeline gamit ang Ensembling o Business Logic Scripting (BLS). HTTP/REST at GRPC inference protocols batay sa KServe protocol na binuo ng komunidad. Binibigyang-daan ng AC API at Java API ang Triton na direktang mag-link sa iyong application para sa edge at iba pang in-process na mga kaso ng paggamit.
Mga tampok
- Sinusuportahan ang maraming malalim na balangkas sa pag-aaral
- Sinusuportahan ang maraming machine learning frameworks
- Kasabay na pagpapatupad ng modelo
- Dynamic na batching
- Sequence batching at implicit state management para sa stateful na mga modelo
- Nagbibigay ng Backend API na nagbibigay-daan sa pagdaragdag ng mga custom na backend at pre/post processing operations
Wika ng Programming
Sawa
Kategorya
Ito ay isang application na maaari ding makuha mula sa https://sourceforge.net/projects/triton-inference-server.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.