Dies ist die Windows-App mit dem Namen Triton Inference Server, deren neueste Version als Release2.38.0 heruntergeladen werden kann, was NGCcontainer23.09.zip entspricht. Es kann online im kostenlosen Hosting-Anbieter OnWorks für Workstations betrieben werden.
Laden Sie diese App mit dem Namen Triton Inference Server with OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS
Ad
Triton Inferenzserver
BESCHREIBUNG
Triton Inference Server ist eine Open-Source-Inferenzsoftware, die die KI-Inferenz optimiert. Mit Triton können Teams jedes beliebige KI-Modell aus mehreren Frameworks für Deep Learning und maschinelles Lernen bereitstellen, darunter TensorRT, TensorFlow, PyTorch, ONNX, OpenVINO, Python, RAPIDS FIL und mehr. Triton unterstützt Inferenz über Cloud-, Rechenzentrums-, Edge- und eingebettete Geräte auf NVIDIA-GPUs, x86- und ARM-CPUs oder AWS Inferentia. Triton bietet eine optimierte Leistung für viele Abfragetypen, einschließlich Echtzeit, Stapelverarbeitung, Ensembles und Audio-/Video-Streaming. Stellt eine Backend-API bereit, die das Hinzufügen benutzerdefinierter Backends und Vor-/Nachverarbeitungsvorgänge ermöglicht. Modellieren Sie Pipelines mit Ensembling oder Business Logic Scripting (BLS). HTTP/REST- und GRPC-Inferenzprotokolle basierend auf dem von der Community entwickelten KServe-Protokoll. AC-API und Java-API ermöglichen es Triton, sich direkt mit Ihrer Anwendung für Edge- und andere In-Process-Anwendungsfälle zu verknüpfen.
Eigenschaften
- Unterstützt mehrere Deep-Learning-Frameworks
- Unterstützt mehrere Frameworks für maschinelles Lernen
- Gleichzeitige Modellausführung
- Dynamische Stapelverarbeitung
- Sequenz-Batching und implizite Zustandsverwaltung für zustandsbehaftete Modelle
- Stellt eine Backend-API bereit, die das Hinzufügen benutzerdefinierter Backends und Vor-/Nachverarbeitungsvorgänge ermöglicht
Programmiersprache
Python
Kategorien
Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/triton-inference-server.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, damit es auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme ausgeführt werden kann.