Dies ist die Windows-App mit dem Namen CTranslate2, deren neueste Version als CTranslate23.20.0.zip heruntergeladen werden kann. Es kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens CTranslate2 mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS
Ad
CTranslate2
BESCHREIBUNG
CTranslate2 ist eine C++- und Python-Bibliothek für effiziente Inferenz mit Transformer-Modellen. Das Projekt implementiert eine benutzerdefinierte Laufzeit, die viele Techniken zur Leistungsoptimierung wie Gewichtungsquantisierung, Ebenenfusion, Stapelneuordnung usw. anwendet, um die Speichernutzung von Transformer-Modellen auf CPU und GPU zu beschleunigen und zu reduzieren. Dank vieler erweiterter Optimierungen ist die Ausführung erheblich schneller und erfordert weniger Ressourcen als allgemeine Deep-Learning-Frameworks für unterstützte Modelle und Aufgaben: Layer-Fusion, Padding-Entfernung, Batch-Neuordnung, In-Place-Vorgänge, Caching-Mechanismus usw. Die Modellserialisierung und Berechnung unterstützt Gewichte mit reduzierter Genauigkeit: 16-Bit-Gleitkommazahlen (FP16), 16-Bit-Ganzzahlen (INT16) und 8-Bit-Ganzzahlen (INT8). Das Projekt unterstützt x86-64- und AArch64/ARM64-Prozessoren und integriert mehrere Backends, die für diese Plattformen optimiert sind: Intel MKL, oneDNN, OpenBLAS, Ruy und Apple Accelerate.
Eigenschaften
- Unterstützte Encoder-Decoder-Modelle
- GPT-2, GPT-J, GPT-NeoX, OPT, BLOOM werden unterstützt
- Automatische CPU-Erkennung und Code-Versand
- Schnelle und effiziente Ausführung auf CPU und GPU
- Quantisierung und reduzierte Präzision
- Unterstützung mehrerer CPU-Architekturen
- Dynamische Speichernutzung
- Parallele und asynchrone Ausführung
Programmiersprache
C + +
Kategorien
Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/ctranslate2.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, um es auf einfachste Weise online über eines unserer kostenlosen Betriebssysteme ausführen zu können.