Questa è l'app Linux denominata Chinese-LLaMA-Alpaca-2 v2.0 la cui ultima versione può essere scaricata come MinJianBanZhongWenYangTuoMoXingv5.0.zip. Può essere eseguito online nel provider di hosting gratuito OnWorks per workstation.
Scarica ed esegui online questa app denominata Chinese-LLaMA-Alpaca-2 v2.0 con OnWorks gratuitamente.
Segui queste istruzioni per eseguire questa app:
- 1. Scaricata questa applicazione sul tuo PC.
- 2. Entra nel nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 3. Carica questa applicazione in tale file manager.
- 4. Avviare l'emulatore online OnWorks Linux o Windows online o l'emulatore online MACOS da questo sito Web.
- 5. Dal sistema operativo OnWorks Linux che hai appena avviato, vai al nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 6. Scarica l'applicazione, installala ed eseguila.
IMMAGINI
Ad
Cinese-LLaMA-Alpaca-2 v2.0
DESCRIZIONE
Questo progetto ha reso open source il modello cinese LLaMA e il modello grande Alpaca con la messa a punto delle istruzioni per promuovere ulteriormente la ricerca aperta di modelli di grandi dimensioni nella comunità cinese della PNL. Basati sull'originale LLaMA, questi modelli espandono il vocabolario cinese e utilizzano dati cinesi per la pre-formazione secondaria, che migliora ulteriormente la comprensione semantica di base del cinese. Allo stesso tempo, il modello cinese Alpaca utilizza ulteriormente i dati delle istruzioni cinesi per la messa a punto, il che migliora significativamente la capacità del modello di comprendere ed eseguire le istruzioni.
Caratteristiche
- Ampliato il vocabolario cinese per il modello LLaMA originale, migliorando l'efficienza della codifica e decodifica cinese
- LLaMA cinese open source preaddestrato con dati di testo cinese e Alpaca cinese con istruzioni ottimizzate
- Script di pre-addestramento open source e script di perfezionamento delle istruzioni, gli utenti possono addestrare ulteriormente il modello secondo necessità
- Utilizza rapidamente la CPU/GPU di un laptop (PC personale) per quantificare e distribuire localmente un modello di grandi dimensioni
- Supporta trasformatori, llama.cpp, text- generation-webui, LlamaChat, LangChain, privateGPT e altri
- Versioni del modello attualmente open source: 7B (Basic, Plus, Pro), 13B (Basic, Plus, Pro), 33B (Basic, Plus, Pro)
- Generare una valutazione delle prestazioni
Linguaggio di programmazione
Python
Categorie
Questa è un'applicazione che può essere recuperata anche da https://sourceforge.net/projects/chinese-llama-alpaca-v2.mirror/. È stato ospitato su OnWorks per poter essere eseguito online in modo più semplice da uno dei nostri sistemi operativi gratuiti.