Dies ist die Windows-App namens AWS Neuron, deren neueste Version als NeuronSDKRelease-March28,2023.zip heruntergeladen werden kann. Es kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App mit dem Namen AWS Neuron with OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS
Ad
AWS-Neuron
BESCHREIBUNG
AWS Neuron ist ein Softwareentwicklungskit (SDK) zum Ausführen von maschinellen Lerninferenzen mit AWS Inferentia-Chips. Es besteht aus einem Compiler, Laufzeit- und Profilerstellungstools, die es Entwicklern ermöglichen, hochleistungsfähige und latenzarme Inferenzen mit AWS Inferentia-basierten Amazon EC2 Inf1-Instances auszuführen. Mithilfe von Neuron können Entwickler ihre Machine-Learning-Modelle problemlos auf allen gängigen Frameworks wie TensorFlow, PyTorch und MXNet trainieren und optimal auf Amazon EC2 Inf1-Instances ausführen. Sie können weiterhin dieselben ML-Frameworks verwenden, die Sie heute verwenden, und Ihre Software mit minimalen Codeänderungen und ohne Einbindung in anbieterspezifische Lösungen auf Inf1-Instanzen migrieren. Neuron ist in gängige Frameworks für maschinelles Lernen wie TensorFlow, MXNet und Pytorch vorintegriert, um einen nahtlosen Training-to-Inference-Workflow bereitzustellen. Es enthält einen Compiler, einen Laufzeittreiber sowie Debug- und Profiling-Dienstprogramme mit einem TensorBoard-Plug-in zur Visualisierung.
Eigenschaften
- Der schnellste und einfachste Weg, um mit Inf1-Instances zu beginnen, ist Amazon SageMaker
- Das AWS Neuron SDK ist in beliebte Frameworks wie TensorFlow, PyTorch und MXNet integriert
- Es ist in Amazon Deep Learning-AMIs und Amazon Deep Learning-Containern vorinstalliert
- Das AWS Neuron SDK ermöglicht einen effizienten Programmier- und Laufzeitzugriff auf die Inferentia-Chips
- Da Neuron in gängige Frameworks für maschinelles Lernen integriert ist, stellen Entwickler ihre vorhandenen Modelle mit minimalen Codeänderungen auf EC2 Inf1-Instances bereit
- Bietet Kunden die Möglichkeit, Inferenzen mit vortrainierten Modellen zu kompilieren und auszuführen
Programmiersprache
Python
Kategorien
Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/aws-neuron.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, damit es auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme ausgeführt werden kann.