Dies ist die Linux-App namens tvm, deren neueste Version als ApacheTVMv0.11.1.zip heruntergeladen werden kann. Es kann online im kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens tvm kostenlos mit OnWorks herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
SCREENSHOTS
Ad
tvm
BESCHREIBUNG
Apache TVM ist ein Open-Source-Compiler-Framework für maschinelles Lernen für CPUs, GPUs und Beschleuniger für maschinelles Lernen. Ziel ist es, Ingenieuren des maschinellen Lernens die Möglichkeit zu geben, Berechnungen auf jedem Hardware-Backend effizient zu optimieren und auszuführen. Die Vision des Apache TVM-Projekts besteht darin, eine vielfältige Gemeinschaft von Experten und Praktikern in den Bereichen maschinelles Lernen, Compiler und Systemarchitektur zu beherbergen, um ein zugängliches, erweiterbares und automatisiertes Open-Source-Framework zu erstellen, das aktuelle und neue Modelle für maschinelles Lernen für jede Hardware optimiert Plattform. Zusammenstellung von Deep-Learning-Modellen in Keras, MXNet, PyTorch, Tensorflow, CoreML, DarkNet und mehr. Beginnen Sie noch heute mit der Nutzung von TVM mit Python und erstellen Sie am nächsten Tag Produktionsstacks mit C++, Rust oder Java.
Eigenschaften
- Zusammenstellung von Deep-Learning-Modellen in minimal einsetzbare Module
- Infrastruktur zur automatischen Generierung und Optimierung von Modellen auf mehr Backends mit besserer Leistung
- Kompilierung und minimale Laufzeiten entsperren in der Regel ML-Workloads auf vorhandener Hardware
- CPUs, GPUs, Browser, Mikrocontroller, FPGAs und mehr
- Generieren und optimieren Sie Tensoroperatoren automatisch auf mehr Backends
- TVM übernimmt das Apache-Committer-Modell
Programmiersprache
Python
Kategorien
Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/tvm.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, um es auf einfachste Weise online über eines unserer kostenlosen Betriebssysteme ausführen zu können.