Dies ist die Windows-App mit dem Namen Tiny CUDA Neural Networks, deren neueste Version als Version1.6.zip heruntergeladen werden kann. Es kann online im kostenlosen Hosting-Anbieter OnWorks für Workstations betrieben werden.
Laden Sie diese App mit dem Namen Tiny CUDA Neural Networks with OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS
Ad
Winzige neuronale CUDA-Netzwerke
BESCHREIBUNG
Dies ist ein kleines, eigenständiges Framework zum Trainieren und Abfragen neuronaler Netze. Am bemerkenswertesten ist, dass es ein blitzschnelles „vollständig verschmolzenes“ mehrschichtiges Perzeptron (technisches Papier), eine vielseitige Hash-Codierung mit mehreren Auflösungen (technisches Papier) sowie Unterstützung für verschiedene andere Eingabecodierungen, Verluste und Optimierer enthält. Wir stellen eine Beispielanwendung bereit, bei der eine Bildfunktion (x,y) -> (R,G,B) gelernt wird. Die vollständig fusionierte MLP-Komponente dieses Frameworks erfordert in ihrer Standardkonfiguration eine sehr große Menge an gemeinsam genutztem Speicher. Es wird wahrscheinlich nur auf einer RTX 3090, einer RTX 2080 Ti oder High-End-Enterprise-GPUs funktionieren. Low-End-Karten müssen den n_neurons-Parameter reduzieren oder stattdessen CutlassMLP verwenden (bessere Kompatibilität, aber langsamer). tiny-cuda-nn enthält eine PyTorch-Erweiterung, die es ermöglicht, die schnellen MLPs und Eingabecodierungen aus einem Python-Kontext heraus zu verwenden. Diese Bindungen können deutlich schneller sein als vollständige Python-Implementierungen; insbesondere für die Hash-Codierung mit mehreren Auflösungen.
Eigenschaften
- Winzige neuronale CUDA-Netzwerke haben eine einfache C++/CUDA-API
- Lernen Sie ein 2D-Bild
- Benötigt eine NVIDIA-GPU
- Benötigt Windows: Visual Studio 2019
- Benötigt Linux: GCC/G++ 7.5 oder höher
- Erfordert CUDA v10.2 oder höher und CMake v3.21 oder höher.
Programmiersprache
C + +
Kategorien
Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/tiny-cuda-neural-netw.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, damit es auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme ausgeführt werden kann.