EnglischFranzösischSpanisch

OnWorks-Favicon

Petals-Download für Linux

Laden Sie die Petals Linux-App kostenlos herunter, um sie online unter Ubuntu online, Fedora online oder Debian online auszuführen

Dies ist die Linux-App namens Petals, deren neueste Version als v2.2.0_Falcon,macOSsupport,andmore.zip heruntergeladen werden kann. Es kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.

Laden Sie diese App mit dem Namen Petals with OnWorks kostenlos herunter und führen Sie sie online aus.

Befolgen Sie diese Anweisungen, um diese App auszuführen:

- 1. Diese Anwendung auf Ihren PC heruntergeladen.

- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.

- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.

- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.

- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.

- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.

SCREENSHOTS

Ad


Blütenblätter


BESCHREIBUNG

Führen Sie zu Hause mehr als 100 Milliarden Sprachmodelle im BitTorrent-Stil aus. Führen Sie große Sprachmodelle wie BLOOM-176B gemeinsam aus – Sie laden einen kleinen Teil des Modells und arbeiten dann mit Personen zusammen, die die anderen Teile bedienen, um Inferenzen oder Feinabstimmungen durchzuführen. Single-Batch-Inferenz läuft mit ≈ 1 Sekunde pro Schritt (Token) – bis zu 10-mal schneller als Offloading, genug für Chatbots und andere interaktive Apps. Die parallele Inferenz erreicht Hunderte von Token/Sek. Jenseits klassischer Sprachmodell-APIs – Sie können beliebige Feinabstimmungs- und Stichprobenmethoden anwenden, benutzerdefinierte Pfade durch das Modell ausführen oder seine verborgenen Zustände anzeigen. Sie erhalten den Komfort einer API mit der Flexibilität von PyTorch. Sie können auch BLOOMZ hosten, eine Version von BLOOM, die darauf abgestimmt ist, menschliche Anweisungen im Zero-Shot-Regime zu befolgen – ersetzen Sie einfach Bloom-Petals durch Bloomz-Petals. Petals führt große Sprachmodelle wie BLOOM-176B gemeinsam aus – Sie laden einen kleinen Teil des Modells und arbeiten dann mit Leuten zusammen, die die anderen Teile bedienen, um Inferenzen oder Feinabstimmungen durchzuführen.



Eigenschaften

  • Petals betreibt große Sprachmodelle wie BLOOM-176B in Zusammenarbeit
  • Single-Batch-Inferenz läuft mit ≈ 1 Sekunde pro Schritt (Token)
  • Jenseits klassischer Sprachmodell-APIs
  • Sie können jede Feinabstimmungs- und Abtastmethode anwenden
  • Sie erhalten den Komfort einer API mit der Flexibilität von PyTorch
  • Die parallele Inferenz erreicht Hunderte von Token/Sek


Programmiersprache

Python


Kategorien

Große Sprachmodelle (LLM), generative KI

Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/petals.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, damit es auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme ausgeführt werden kann.


Kostenlose Server & Workstations

Laden Sie Windows- und Linux-Apps herunter

Linux-Befehle

Ad