Dies ist die Windows-App namens tf2onnx, deren neueste Version als v1.15.1.zip heruntergeladen werden kann. Es kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens tf2onnx mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS
Ad
tf2onnx
BESCHREIBUNG
tf2onnx konvertiert TensorFlow- (tf-1.x oder tf-2.x), Keras-, tensorflow.js- und tflite-Modelle über die Befehlszeile oder die Python-API in ONNX. Hinweis: Unterstützung für tensorflow.js wurde gerade hinzugefügt. Obwohl wir es mit vielen tfjs-Modellen von tfhub getestet haben, sollte es als experimentell betrachtet werden. TensorFlow hat viel mehr Operationen als ONNX und gelegentlich führt die Zuordnung eines Modells zu ONNX zu Problemen. tf2onnx verwendet die auf Ihrem System installierte ONNX-Version und installiert die neueste ONNX-Version, wenn keine gefunden wird. Wir unterstützen und testen ONNX opset-13 bis opset-17. opset-6 bis opset-12 sollten funktionieren, aber wir testen sie nicht. Wenn Sie möchten, dass der Graph mit einem bestimmten Opset generiert wird, verwenden Sie --opset in der Befehlszeile, z. B. --opset 13. Bei Ausführung unter tf-2.x verwendet tf2onnx den Tensorflow V2-Kontrollfluss.
Eigenschaften
- Sie können tf2onnx auf tf-1.x oder tf-2.x installieren
- Wenn Sie TensorFlow noch nicht installiert haben, installieren Sie den gewünschten TensorFlow-Build
- ONNX Runtime (verfügbar für Linux, Windows und Mac)
- tensorflow-onnx erfordert onnx-1.9 oder besser
- ONNX erfordert, dass Standardwerte für Diagrammeingaben konstant sind
- Standardmäßig verwenden wir das Opset 13, um den Graphen zu generieren
Programmiersprache
Python
Kategorien
Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/tf2onnx.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, damit es auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme ausgeführt werden kann.