अंग्रेज़ीफ्रेंचस्पेनिश

ऑनवर्क्स फ़ेविकॉन

Linux के लिए ONNX के लिए TensorRT बैकएंड डाउनलोड करें

ONNX Linux ऐप के लिए मुफ्त डाउनलोड TensorRT बैकएंड उबंटू ऑनलाइन, फेडोरा ऑनलाइन या डेबियन ऑनलाइन चलाने के लिए

यह TensorRT Backend For ONNX नाम का Linux ऐप है जिसकी नवीनतम रिलीज़ को ONNX-TensorRT8.6EARelease.zip के रूप में डाउनलोड किया जा सकता है। इसे वर्कस्टेशन के लिए मुफ्त होस्टिंग प्रदाता ऑनवर्क्स में ऑनलाइन चलाया जा सकता है।

TensorRT Backend For ONNX with OnWorks नाम के इस ऐप को मुफ्त में डाउनलोड करें और ऑनलाइन चलाएं।

इस ऐप को चलाने के लिए इन निर्देशों का पालन करें:

- 1. इस एप्लिकेशन को अपने पीसी में डाउनलोड करें।

- 2. हमारे फ़ाइल प्रबंधक में https://www.onworks.net/myfiles.php?username=XXXXX उस उपयोगकर्ता नाम के साथ दर्ज करें जो आप चाहते हैं।

- 3. इस एप्लिकेशन को ऐसे फाइल मैनेजर में अपलोड करें।

- 4. इस वेबसाइट से ऑनवर्क्स लिनक्स ऑनलाइन या विंडोज ऑनलाइन एमुलेटर या मैकोज़ ऑनलाइन एमुलेटर शुरू करें।

- 5. ऑनवर्क्स लिनक्स ओएस से आपने अभी शुरुआत की है, हमारे फाइल मैनेजर को https://www.onworks.net/myfiles.php?username=XXXXX उस यूजरनेम के साथ जाएं जो आप चाहते हैं।

- 6. एप्लिकेशन डाउनलोड करें, इसे इंस्टॉल करें और इसे चलाएं।

स्क्रीनशॉट

Ad


ONNX के लिए TensorRT बैकएंड


वर्णन

निष्पादन के लिए TensorRT के साथ ONNX मॉडल को पार्स करता है। मुख्य शाखा पर विकास TensorRT 8.4.1.5 के नवीनतम संस्करण के लिए पूर्ण आयाम और गतिशील आकार समर्थन के साथ है। TensorRT के पिछले संस्करणों के लिए, उनकी संबंधित शाखाओं को देखें। डायनेमिक शेप सपोर्ट के साथ पूर्ण आयाम मोड में INetwork ऑब्जेक्ट्स का निर्माण करने के लिए C++ और Python API को कॉल करना आवश्यक है। ऑपरेटर समर्थन मैट्रिक्स में वर्तमान समर्थित ONNX ऑपरेटर पाए जाते हैं। डॉकटर के भीतर निर्माण के लिए, हम डॉकर कंटेनरों का उपयोग करने और स्थापित करने की सलाह देते हैं, जैसा कि मुख्य (टेन्सरआरटी ​​​​रिपॉजिटरी) में निर्देश दिया गया है। ध्यान दें कि इस परियोजना की CUDA पर निर्भरता है। डिफ़ॉल्ट रूप से बिल्ड CUDA टूलकिट इंस्टॉलेशन के लिए /usr/local/cuda में दिखेगा। यदि आपका CUDA पथ भिन्न है, तो डिफ़ॉल्ट पथ को अधिलेखित करें। ONNX मॉडल को onnx2trt निष्पादन योग्य का उपयोग करके क्रमबद्ध TensorRT इंजन में परिवर्तित किया जा सकता है।



विशेषताएं

  • ONNX मॉडल को मानव-पठनीय पाठ में बदला जा सकता है
  • ONNX मॉडल को सीरियलाइज्ड TensorRT इंजन में बदला जा सकता है
  • ONNX के अनुकूलन पुस्तकालयों द्वारा ONNX मॉडल को अनुकूलित किया जा सकता है
  • पायथन मॉड्यूल
  • TensorRT 8.4.1.5 ONNX रिलीज़ 1.8.0 को सपोर्ट करता है
  • ONNX के लिए TensorRT बैकएंड का उपयोग Python में किया जा सकता है


प्रोग्रामिंग भाषा

सी + +


कैटिगरीज

मशीन लर्निंग

यह एक ऐसा एप्लिकेशन है जिसे https://sourceforge.net/projects/tensorrt-backend-onnx.mirror/ से भी प्राप्त किया जा सकता है। इसे हमारे निःशुल्क ऑपरेटिव सिस्टम में से किसी एक से आसान तरीके से ऑनलाइन चलाने के लिए ऑनवर्क्स में होस्ट किया गया है।


फ्री सर्वर और वर्कस्टेशन

विंडोज और लाइनेक्स एप डाउनलोड करें

लिनक्स कमांड

Ad